Abogado usó ChatGPT para juicio. Todo sale mal

0
152

Ya es conocido que las Inteligencias Artificiales (IA) están avanzando a pasos agigantados, tanto que ha causado pavor por la creencia de que puede reemplazar varias profesiones actuales, con lo que muchas personas se quedarían sin trabajo… Parece ser que esto está lejos de ocurrir, pues un abogado decidió usar el famoso ChatGPT para la defensa en un juicio y todo le salió mal. Incluso recibirá una sanción.

Se trata de Steven Schwartz, un abogado con 30 años de «experiencia» en su firma ‘Levidow, Levidow & Oberman’, a quien se le hizo buena idea hacer uso de esta IA para defender a Roberto Mata, quien demandó a una aerolínea por lesiones.

Resulta que Schwartz presentó ante el juez 10 páginas con juicios de personas contra aerolíneas, con las que pretendía que el caso no fuera desestimado, sin embargo, dichos casos no existían. Sí, así como lo estás pensando, fueron creados por ChatGTP.

También te puede interesar:  Gobierno de EPN gasta en publicidad equivalente a reconstrucción de CDMX

The New York Times mencionó que el equipo legal de la aerolínea demandada, así como el juez del caso, se dieron cuenta de que ninguna de las personas citadas en el informe presentado por el abogado, podían ser localizadas, incluso no había registros de las demandas. Fue así como Steven explicó que usó la Inteligencia… Artificial para obtener consistencia en el caso.

Aquí no termina la cosa, el abogado mencionó que no tenía idea de que el contenido podía ser falso, incluso LE PREGUNTÓ si eran reales, cosa que ChatGPT confirmó, por lo que decidió presentarlos para continuar con la defensa. O sea que fue engañado por la IA.

También te puede interesar:  Las Primeras Planas de hoy jueves

Para esto, el juez del caso ordenó una audiencia en junio para discutir las posibles sanciones que tendrá que afrentar Steven Schwartz por haberle creído a una inteligencia ajena a la suya.

Comentarios
+ posts

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí