La semana pasada un juez cartagenero usó una inteligencia artificial para complementar los argumentos en un fallo de tutela. Varios colegas han cuestionado la decisión por diferentes motivos. Uno de los hallazgos más interesantes es que ChatGPT justifica sus respuestas citando sentencias que no existen.
Es claro que ChatGPT no es una fuente de derecho y que sus respuestas no pueden reemplazar las de un abogado (La misma IA suele advertirlo cuando contesta preguntas jurídicas). Sin embargo, muchas de sus respuestas parecen correctas, cosa que la hace más peligrosa para el usuario no profesional, pues no es fácil distinguir cuando se está equivocando. Por eso me parece interesante preguntarse ¿Cómo funciona y porqué algunas de sus respuestas son inventadas y otras no?
ChatGPT es una inteligencia artificial que utiliza un modelo de lenguaje llamado Transform. Aunque al usarla puede dar la impresión de que tiene la capacidad de entendernos, esto no es preciso. Una IA es una máquina que recibe información (input) y responde (output) de forma que simula la inteligencia humana. En cierto sentido no es diferente a una calculadora. La alimentamos con una pregunta (2+2) y esperamos que nos de un resultado (4). En un modelo de lenguaje esperamos escribir una frase y que conteste con una respuesta que nos parezca inteligente.
El reto no es menor. Según el diccionario de la RAE el español tiene 93.000 palabras. Al comunicarnos organizamos esas palabras en una estructura que relacionan sujetos, verbos y completo siguiendo reglas gramaticales para crear frases con significado ¿cómo puede la maquina entendernos? Una respuesta corta sería; no lo hace, solo lo aparenta.
Lo que hacen los modelos de lenguaje es analizar una inmensa cantidad de textos y asignarles valores vectoriales respecto de otras palabras, en un proceso conocido como “enbedding”. Si esto no dice mucho tal vez quiera revisar una representación gráfica del resultado de este proceso AQUÍ. Lo que puede ver en este enlace es una representación en 3 dimensiones del modelo de aprendizaje automático Word2Vec que es el usado por ChatGPT para organizar las palabras.
Si buscamos una palabra en esta confusa nube, nos mostrara otras palabras con las que se relaciona. Por ejemplo, al buscar “lawyer” nos muestra que las palabras con las que más se asocia son: judge, politician, teacher, writter. Una palabra puede tener diversos significados y usarse en diferentes contextos, así que el sistema de lenguaje relaciona todas las palabras de una oración para ver con que otras palabras se relacionan como conjunto y dar la apariencia de que sabe del tema.
Otra cosa sorprendente que hace ChatGPT es detectar cuál es la tarea que le pedimos. Podemos hacerle una pregunta (Que es capaz de identificar, aunque no usemos el signo de interrogación), pedirle que haga un resumen, que mejore una redacción o que haga una composición nueva.
Entonces ¿por qué inventa cosas? En el argot de la IA se les llama “alucinaciones” como su nombre lo indica no se trata de invenciones, sino más bien de patrones que el sistema ve, pero que no existen. Para alcanzar su nivel actual, los programadores de ChatGPT tuvieron que hacer mucho trabajo de ajuste de los algoritmos y de retroalimentación. Incluso hoy la herramienta nos pide que califiquemos las respuestas e informemos de errores.
ChatGPT no fue a una facultad de derecho y no fue programado exclusivamente para resolver asuntos jurídicos. No reconoce jerarquía normativa ni sabe cómo aplicar precedentes judiciales. Mucho menos conoce como piensan las personas y cuáles son sus intereses. Lo que hace es analizar un gran número de textos jurídicos (fácilmente más de los que un abogado promedio puede leer en toda su vida) y presentar respuestas que usan los mismos términos y expresiones que los profesionales.
Chat GPT puede detectar patrones que matemáticamente existen, pero que no tienen sentido. Por ejemplo, nota que las sentencias de unificación se citan siguiendo un modelo; las letras SU, seguidas de un número de 3 cifras, seguidas de un año. Así, al contestar puede inventarse la respuesta usando un número de 3 cifras que ha sido mencionado cuando se habla del tema y un año que está relacionado.
Lo bueno es que aprende, si le informamos que la respuesta es incorrecta los programadores pueden ajustar el algoritmo para evitar ese tipo de errores. La IA no puede reemplazar a un abogado, pero puede llegar a ser un gran aliado para agilizar nuestro trabajo y divulgar conocimiento legal.
Comments