Advogado pede desculpas por falsas citações judiciais criadas pelo ChatGPT
- Ou entre em contato por telefone.
- (14)98839-6695
- (14)98839-6695
- Localização
-
-
Horário de Atendimento:
Advogado pede desculpas por falsas citações judiciais criadas pelo ChatGPT
- Localização
-
-
Horário de Atendimento:
- Ou entre em contato por telefone.
- (14)98839-6695
- (14)98839-6695
- Ou entre em contato por telefone.
- (14)98839-6695
- (14)98839-6695
- Localização
-
-
Horário de Atendimento:
- O agendamento se dará de acordo com a disponibilidade. Retornamos para confirmar.
- Ou entre em contato por telefone.
- (14)98839-6695
- (14)98839-6695
- Localização
-
-
Horário de Atendimento:
Advogado pede desculpas por falsas citações judiciais criadas pelo ChatGPT
- Se preferir entre em contato com a gente.
- (14)98839-6695
- (14)98839-6695
-
Horário de Atendimento:
Advogado pede desculpas por falsas citações judiciais criadas pelo ChatGPT
Advogado há mais de três décadas, diz que nunca tinha usado o ChatGPT como fonte de pesquisa legal antes desse caso. ler
A ascensão meteórica do ChatGPT está abalando vários setores, incluindo o jurídico, como um advogado descobriu recentemente.
Um cidadão chamado Roberto Mata processou a companhia aérea Avianca por ferimentos que ele diz ter sofrido por um carrinho de serviço enquanto voava pela companhia aérea em 2019, alegando negligência de um funcionário. Steven Schwartz, advogado há mais de três décadas e representando a firma “Levidow, Levidow & Oberman” de Nova York, foi o advogado responsável pela ação de Mata na justiça.
Mas pelo menos seis dos casos apresentados por Schwartz como pesquisa para a peça jurídica “parecem ser falsas decisões judiciais com citações falsas”, escreveu o juiz Kevin Castel, do Distrito Sul de Nova York, em uma decisão.
A fonte de casos falsos foi o ChatGPT.
“O tribunal tem em suas mãos uma circunstância sem precedentes”, escreveu Castel na decisão de 4 de maio.
Entre os supostos casos apresentados estão Varghese versus China South Airlines, Martinez versus Delta Airlines, Shaboon versus EgyptAir, Petersen versus Iran Air, Miller versus United Airlines e Espólio de Durden versus KLM Royal Dutch Airlines. Todos não parecem existir para o juiz ou defesa.
Schwartz, em uma declaração, disse que nunca tinha usado o ChatGPT como fonte de pesquisa legal antes desse caso e, portanto, “desconhecia a possibilidade de que seu conteúdo pudesse ser falso”. Ele assumiu a responsabilidade de não confirmar as fontes citadas pela inteligência artificial.
Em uma declaração juramentada nesta semana, o advogado disse que “lamenta muito ter utilizado inteligência artificial generativa para complementar a pesquisa legal realizada e nunca fará isso no futuro sem verificação absoluta de autenticidade”.
No final de abril, os advogados da Avianca, da firma Condon & Forsyth, escreveram uma carta a Castel questionando a autenticidade dos casos.
Em uma declaração apresentada na quinta-feira (25), o advogado Peter Loduca, da equipe que defende a companhia aérea, disse que “não tinha razão para duvidar da sinceridade” da pesquisa de Schwartz e que ele não participara da pesquisa.
Schwartz deve provar ao tribunal o porquê de não ser punido “pelo uso de uma peça judicial falsa e fraudulenta”, de acordo com a declaração protocolada em 25 de abril. A audiência, que decidirá se ele vai receber sanções ou não, está agendada para 8 de junho.
A declaração de defesa de Schwartz apresentada nesta semana contém capturas de tela do advogado que parecem confirmar a autenticidade da consulta com ChatGPT.
“Varghese é um caso real”, perguntou Schwartz ao chatbot.
“Sim”, o ChatGPT respondeu, “é um caso real”.
Schwartz então pediu sua fonte. O chatbot novamente afirmou que o caso falso era real.
“Peço desculpas pela confusão mais cedo”, respondeu o ChatGPT. “Após a dupla verificação, vi que o caso Varghese versus China Southern Airlines Co. Ltd. realmente existe e pode ser encontrado em bases de dados de pesquisa legal, como ‘Westlaw’ e ‘LexisNexis’. Peço desculpas por qualquer inconveniente ou confusão que minhas respostas anteriores possam ter causado”.
Quando Schwartz perguntou ao chatbot se outros casos eram falsos, o ChatGPT respondeu que os outros casos “são reais” e poderiam ser encontrados em “bases de dados legais respeitáveis”.
Fonte: CNN Brasil