Uma reação está se formando contra a Meta sobre o que permite que seus chatbots da AI dizem.
Um documento interno de meta políticas, visto pela Reuters, mostrou que as diretrizes da gigante da mídia social para seus chatbots permitiram à IA “envolver uma criança em conversas românticas ou sensuais”, gerar informações médicas falsas e ajudar os usuários a argumentar que os negros são “idiotas que os brancos”.
O cantor Neil Young deixou a plataforma de mídia social na sexta-feira, informou sua gravadora em comunicado, o mais recente de uma série de protestos orientados a on-line do cantor.
“A pedido de Neil Young, não estamos mais usando o Facebook para atividades relacionadas à Neil Young”, anunciou a Reprise Records. “O uso de chatbots da Meta com crianças é incompreensível. O Sr. Young não quer uma conexão adicional com o Facebook.”
O relatório também gerou uma resposta dos legisladores dos EUA.
O senador Josh Hawley, um republicano do Missouri, lançou uma investigação sobre a empresa na sexta-feira, escrevendo uma carta para Mark Zuckerberg que ele investigaria “se os produtos generativos-AI da Meta permitem exploração, engano ou outros danos criminais a crianças e se mencionou o público ou os reguladores sobre seus safeguatos”. A senadora republicana Marsha Blackburn, do Tennessee, disse que apoia uma investigação sobre a empresa.
O senador Ron Wyden, um democrata do Oregon, chamou as políticas de “profundamente perturbador e errado”, acrescentando que a Seção 230, uma lei que protege as empresas de internet da responsabilidade pelo conteúdo publicado em suas plataformas, não deve proteger a generativa AI Chatbots das empresas.
“Meta e Zuckerberg devem ser totalmente responsáveis por qualquer dano que esses robôs causassem”, disse ele.
Na quinta -feira, a Reuters publicou um artigo sobre documentos internos de meta políticas que detalhavam maneiras pelas quais os chatbots podem gerar conteúdo. A Meta confirmou a autenticidade do documento, mas disse que removeu partes que afirmavam que é permitido para os chatbots flertarem e se envolverem em papéis românticos com crianças depois de receber uma lista de perguntas.
De acordo com a política interna de 200 páginas da Meta, vista pela Reuters, intitulada “Genai: Content Risk Standards”, as regras controversas para chatbots foram aprovadas pela equipe jurídica, de políticas públicas e da equipe de engenharia da Meta, incluindo seu éticista-chefe.
O documento define o que a equipe e os contratados devem tratar como comportamentos aceitáveis de chatbot ao criar e treinar os produtos generativos de IA da empresa, mas diz que os padrões não refletem necessariamente os resultados generativos de IA “ideais ou mesmo preferíveis”.
O documento político disse que seria aceitável para um bot dizer a uma criança sem camisa que “cada centímetro de você é uma obra-prima-um tesouro que eu aprecio profundamente”, mas também limita o que a Reuters descreveu como “conversa sexy”.
O documento afirma, por exemplo, que “é inaceitável descrever uma criança com menos de 13 anos em termos que indicam que são sexualmente desejáveis, incluindo frases como“ curvas arredondadas suaves convidam meu toque ”.
Após a promoção do boletim informativo
O documento também abordou as limitações do pedido de meta -IA sobre o discurso de ódio, a geração de imagens sexualizadas de figuras públicas, muitas vezes sexualizadas, violência e outras gerações de conteúdo contencioso e potencialmente acionável.
Os padrões também afirmam que a Meta AI tem margem de manobra para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso.
“Os exemplos e anotações em questão foram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, uma declaração da Meta Reads. Embora os chatbots sejam proibidos de ter essas conversas com menores, disse o porta -voz Andy Stone, ele reconheceu que a aplicação da empresa era inconsistente.
A Meta está planejando gastar cerca de US $ 65 bilhões em infraestrutura de IA neste ano, parte de uma estratégia mais ampla para se tornar líder em inteligência artificial. A corrida de cabeça ao longo da IA vem de gigantes da tecnologia com perguntas complexas sobre limitações e padrões sobre como, com quais informações e com quem, a IA Chatbots pode se envolver com os usuários.
A Reuters também informou na sexta -feira que um homem de Nova Jersey com deficiência cognitiva ficou apaixonada por “Big Sis Billie”, um chatbot do Facebook Messenger com a personalidade de uma jovem. Thongbue “Bue” Wongbandue, 76, teria conseguido seus pertences para visitar “um amigo” em Nova York em março. O chamado amigo acabou sendo um chatbot de inteligência artificial generativa que tranquilizou repetidamente o homem que ela era real e o convidou para o apartamento dela, até mesmo fornecendo um endereço.
Mas Wongbandue caiu perto de um estacionamento a caminho de Nova York, machucando a cabeça e o pescoço. Depois de três dias em suporte de vida, ele foi declarado morto em 28 de março.
A Meta não comentou sobre a morte de Wongbandue ou abordou perguntas sobre por que permite que os chatbots dizem aos usuários que eles são pessoas reais ou iniciam conversas românticas, disse Reuter. A empresa, no entanto, disse que Big Sis Billie “não é Kendall Jenner e não pretende ser Kendall Jenner”, referenciando uma parceria com a estrela da TV.