Become a member

Get the best offers and updates relating to Liberty Case News.

― Advertisement ―

spot_img
HomeBrasilChatgpt Desenvolvendo o sistema de verificação de idade para identificar sub-18 usuários...

Chatgpt Desenvolvendo o sistema de verificação de idade para identificar sub-18 usuários após a morte adolescente | Chatgpt

O OpenAI restringirá como o ChatGPT responde a um usuário que suspeita ter menos de 18 anos, a menos que esse usuário passe a tecnologia de estimativa de idade da empresa ou forneça uma identificação, seguindo ações legais da família de um garoto de 16 anos que se matou em abril após meses de conversas com o chatbot.

O OpenAI estava priorizando “segurança antes da privacidade e liberdade para os adolescentes”, disse o executivo -chefe Sam Altman em um post no blog na terça -feira, afirmando que “os menores precisam de proteção significativa.

A empresa disse que a maneira como o chatgpt responde a um garoto de 15 anos deve parecer diferente da maneira como responde a um adulto.

Altman disse que o Openai planeja construir um sistema de previsão de idade para estimar a idade com base em como as pessoas usam o ChatGPT e, se houver dúvida, o sistema não será inadimplente para a experiência de menores de 18 anos. Ele disse que alguns usuários “em alguns casos ou países” também podem ser solicitados a fornecer identificação para verificar sua idade.

“Sabemos que este é um compromisso de privacidade para os adultos, mas acreditamos que é uma troca digna”.

Como o ChatGPT responde às contas identificadas como menores de 18 anos mudarão, disse Altman. O conteúdo sexual gráfico será bloqueado. Ele será treinado para não flertar se solicitado por usuários de menos de 18 anos ou se envolver em discussões sobre suicídio ou auto-mutilação, mesmo em uma sedimentação criativa de redação.

“E se um usuário de menores de 18 anos estiver tendo ideação suicida, tentaremos entrar em contato com os pais do usuário e, se não puder, entrarão em contato com as autoridades no caso de danos iminentes.

“Essas são decisões difíceis, mas depois de conversar com especialistas, é isso que achamos melhor e queremos ser transparentes com nossas intenções”, disse Altman.

O Openai admitiu em agosto que seus sistemas poderiam ficar aquém e instalaria mais fortes corrimãos em torno de conteúdo sensível depois que a família do californiano Adam Raine, de 16 anos, processou a empresa após a morte do adolescente.

O advogado da família disse que Adam se matou após “meses de encorajamento do ChatGPT”, e a família alega que o GPT 4O foi “levado às pressas para o mercado … apesar dos problemas claros de segurança”.

De acordo com os registros do Tribunal dos EUA, Chatgpt supostamente guiou Adam sobre se seu método de tirar a próprio vida funcionaria e também se ofereceu para ajudar a escrever uma nota de suicídio para seus pais.

O Openai disse anteriormente que estava examinando o processo judicial. O Guardian se aproximou do Openai para comentar.

Adam trocou até 650 mensagens por dia com o ChatGPT, o tribunal preenchendo as reivindicações. Em uma postagem no blog após o processo, o OpenAI admitiu que suas salvaguardas funcionam de maneira mais confiável em trocas curtas e, após muitas mensagens por um longo período de tempo, o ChatGPT pode oferecer uma resposta “que vai contra nossas salvaguardas”.

A empresa anunciou na terça -feira que também estava desenvolvendo recursos de segurança para garantir que os dados compartilhados com o ChatGPT sejam privados, mesmo dos funcionários do OpenAI. Altman também disse que os usuários adultos que queriam “conversa flerta” com o ChatGPT seria capaz de tê -lo. Os usuários adultos não seriam capazes de pedir instruções sobre como se matar, mas podem pedir ajuda para escrever uma história fictícia que descreva suicídio.

“Trate adultos como adultos”, disse Altman sobre o princípio da empresa.