Become a member

Get the best offers and updates relating to Liberty Case News.

― Advertisement ―

spot_img
HomeBrasilO Supremo Tribunal diz aos advogados do Reino Unido para interromper o...

O Supremo Tribunal diz aos advogados do Reino Unido para interromper o uso indevido de IA após citações falsas de leis de caso | Inteligência Artificial (AI)

O Supremo Tribunal disse aos advogados seniores que tomassem medidas urgentes para impedir o uso indevido de inteligência artificial depois que dezenas de citações falsas de juros de caso foram colocados perante os tribunais que eram completamente fictícios ou continham passagens inventadas.

Os advogados estão cada vez mais usando os sistemas de IA para ajudá-los a criar argumentos legais, mas dois casos este ano foram prejudicados pelas citações de lees de caso inventados que eram definitivamente ou suspeitos de terem sido gerados pela IA.

Em um caso de danos de £ 89 milhões contra o Banco Nacional do Catar, os requerentes fizeram 45 citações de leis, 18 dos quais acabaram sendo fictícios, com citações em muitos outros também falsos. O requerente admitiu usar as ferramentas de IA disponível ao público e seu advogado aceitou que ele citou as autoridades simuladas.

Quando o Haringey Law Center desafiou o bairro de Londres de Haringey por causa de sua suposta falha em fornecer a seu cliente acomodações temporárias, seu advogado citou a jurisprudência Phantom cinco vezes. As suspeitas foram levantadas quando o advogado que defendia o conselho teve que consultar repetidamente por que eles não conseguiram encontrar nenhum vestígio das supostas autoridades.

Isso resultou em uma ação legal para custos legais desperdiçados e um tribunal considerou o centro de direito e seu advogado, um advogado de aluno, eram negligentes. O advogado negou o uso de IA nesse caso, mas disse que pode ter feito isso inadvertidamente ao usar o Google ou Safari em preparação para um caso separado em que ela também citou as autoridades fantasmas. Nesse caso, ela disse que pode ter levado em consideração os resumos da IA ​​sem perceber o que eram.

Em uma decisão regulatória que responde aos casos na sexta -feira, Dame Victoria Sharp, presidente da divisão de bancada do rei, disse que havia “sérias implicações para a administração da justiça e a confiança do público no sistema de justiça se a inteligência artificial for mal utilizada” e que os advogados que usam a IA de IA podem enfrentar sanções, da adnatação pública a enfrentar o conteúdo dos procedimentos judiciais e encaminhar a IA.

Ela pediu ao Conselho de Advogados e à Sociedade de Direito que considerassem medidas para conter o problema “por uma questão de urgência” e disse aos chefes de câmaras dos advogados e parceiros gerenciais de advogados para garantir que todos os advogados conheçam suas tarefas profissionais e éticas se usarem a IA.

“Essas ferramentas podem produzir respostas aparentemente coerentes e plausíveis a instruções, mas essas respostas coerentes e plausíveis podem se tornar totalmente incorretas”, escreveu ela. “As respostas podem fazer afirmações confiantes que são simplesmente falsas. Eles podem citar fontes que não existem. Eles podem pretender citar passagens de uma fonte genuína que não aparece nessa fonte”.

Ian Jeffery, o diretor executivo da Sociedade de Direito da Inglaterra e do País de Gales, disse que a decisão “mostra os perigos de usar a IA em trabalho jurídico”.

“As ferramentas de inteligência artificial são cada vez mais usadas para apoiar a prestação de serviços legais”, acrescentou. “No entanto, o risco real de resultados incorretos produzidos pela IA generativa exige que os advogados verifiquem, revisem e garantam a precisão de seu trabalho”.

Pule a promoção do boletim informativo

Os casos não são os primeiros a ter sido destruídos pelas alucinações criadas pela AI. Em um tribunal tributário do Reino Unido em 2023, um recorrente que alegou ter sido ajudado por “um amigo no escritório de um advogado” forneceu nove decisões tribunais históricas falsas como supostos precedentes. Ela admitiu que era “possível” que ela usou ChatGPT, mas disse que certamente não fez diferença, pois deve haver outros casos que fizeram seu argumento.

Os recorrentes em um caso dinamarquês de € 5,8 milhões (£ 4,9 milhões) este ano evitaram por pouco os procedimentos de desprezo quando se basearam em uma decisão inventada que o juiz viu. E um caso de 2023 no Tribunal Distrital dos EUA para o Distrito Sul de Nova York desceu ao caos quando um advogado foi desafiado a produzir os sete casos aparentemente fictícios que haviam citado. Eles simplesmente pediram o Chatgpt para resumir os casos que já havia inventado e o resultado, disse o juiz, era “sem sentido”; Os dois advogados e sua empresa foram multados em US $ 5.000.