Un tribunal de California sancionó a una abogada luego de detectar que utilizó citas jurídicas inexistentes generadas por inteligencia artificial en un caso relacionado con la custodia de una mascota en San Diego. La situación salió a la luz durante una apelación, cuando la Corte identificó que varias referencias legales incluidas en el proceso no correspondían a fallos reales, evidenciando un uso inadecuado de herramientas tecnológicas sin verificación previa.
El tribunal advirtió que este tipo de prácticas representa un riesgo grave para la integridad del sistema judicial, ya que las “alucinaciones” de la inteligencia artificial pueden producir información aparentemente válida pero falsa. Aunque no se anuló la decisión original del caso, los jueces señalaron que tanto abogados como funcionarios judiciales tienen la responsabilidad de comprobar la veracidad de las fuentes antes de utilizarlas en procedimientos legales.
Este caso se suma a una creciente preocupación en el ámbito legal por el uso de la inteligencia artificial sin controles adecuados. Las autoridades insisten en que, si bien estas herramientas pueden ser útiles para agilizar el trabajo, no reemplazan el criterio profesional ni la obligación ética de verificar la información, ya que su mal uso puede derivar en sanciones y afectar la credibilidad de la justicia.