
Getty Images/iStockphoto
¿Qué significa la IA generativa para el sector legal?
Las herramientas de inteligencia artificial generativa, como ChatGPT, están ingresando en los despachos jurídicos prometiendo mayor eficiencia y menos tiempo dedicado a tareas repetitivas. Sin embargo, persisten riesgos relacionados con la precisión, la ética y la privacidad.
El sector legal se ha caracterizado tradicionalmente por adoptar una postura cautelosa y conservadora frente a las nuevas tecnologías. Sin embargo, herramientas emergentes de inteligencia artificial generativa, como ChatGPT de OpenAI, están ganando terreno discretamente entre los abogados.
Aunque ChatGPT y otros modelos de lenguaje de gran escala son relativamente recientes, ya han sido adoptados de forma sorprendentemente amplia en el ámbito jurídico. Más del 40 % de los abogados encuestados por la empresa de datos y análisis legales LexisNexis indicaron que ya utilizan o planean utilizar inteligencia artificial generativa en su trabajo legal, según un informe de agosto de 2023.
“Probablemente ha sido el período de doce meses más interesante en mis veinte años de carrera en tecnología legal”, comentó Cheryl Wilson Griffin, directora ejecutiva de Legal Tech Consultants, empresa que asesora a firmas legales y otros clientes jurídicos en cuestiones tecnológicas.
El papel en evolución de la inteligencia artificial generativa en el derecho
El término inteligencia artificial generativa hace referencia a algoritmos de aprendizaje automático avanzados capaces de producir contenido nuevo –como texto, imágenes o código– tras haber sido entrenados con enormes volúmenes de datos.
La capacidad de esta tecnología para generar contenido altamente específico en respuesta a las consultas de los usuarios ha despertado un notable interés dentro del sector legal. En el informe anteriormente mencionado de LexisNexis, casi todos los abogados encuestados (89 %) afirmaron haber oído hablar de la inteligencia artificial generativa como ChatGPT, y el 41 % ya había probado una herramienta de este tipo. No obstante, históricamente los abogados no se han caracterizado por adoptar nuevas tecnologías con rapidez.
Jake Heller, abogado y director ejecutivo de la empresa legal de inteligencia artificial Casetext –adquirida por Thomson Reuters en noviembre de 2023– creció en Silicon Valley y comenzó a programar a una edad temprana. Al convertirse en abogado, se sintió frustrado por el estado deficiente de la tecnología legal, especialmente en comparación con las aplicaciones de consumo como las de entrega de alimentos.
“Me parecía un desequilibrio total que la tecnología para encontrar restaurantes tailandeses fuera tan buena, y la que servía para salvar empresas o evitar que personas fueran a prisión fuera tan anticuada y deficiente”, afirmó.
Aunque el sector jurídico todavía tiene fama de utilizar sistemas obsoletos y mostrar resistencia al cambio, la IA generativa ha sido más difícil de ignorar que otros avances tecnológicos recientes, como la computación en la nube o el análisis de macrodatos. El lanzamiento de ChatGPT marcó un cambio importante en la actitud de los abogados hacia la inteligencia artificial, lo cual Heller describió como un “momento de despertar”.
“Creo que lo que hace que esto sea particularmente interesante, y diferente a otras tecnologías que intentaron cambiar el sector legal, es que tiene una cara de consumo”, afirmó Griffin.
Al igual que Heller, Troy Doucet, fundador de la startup legal de inteligencia artificial AI.law, llegó a la tecnología legal desde su experiencia como abogado. Firmas como la suya –centrada en la defensa ante ejecuciones hipotecarias y la protección del consumidor– suelen verse presionadas para maximizar la eficiencia debido a los desafíos económicos que enfrentan los despachos pequeños.
Cuando Doucet comenzó a explorar la capacidad de la inteligencia artificial para automatizar procesos legales, inicialmente se interesó por la detección de problemas jurídicos, es decir, determinar si el relato de un cliente potencial da lugar a reclamaciones legales. Por ejemplo, un software de este tipo para un abogado laboralista podría analizar si un conjunto de hechos respalda una demanda en virtud de la Ley de Normas Laborales Justas.
Doucet comenzó a explorar este caso de uso al inicio de la pandemia de COVID-19 y finalmente contrató a un empleado con un perfil de datos para ayudar a desarrollar un producto de inteligencia artificial. Lo que empezó como una herramienta de eficiencia interna en su firma evolucionó gradualmente hacia un proyecto más amplio. Sin embargo, en sus primeras fases, sus aspiraciones se vieron limitadas por barreras técnicas. “No funcionó porque la tecnología simplemente no estaba lista para ello”, dijo Doucet.
El surgimiento de ChatGPT, no obstante, fue un punto de inflexión, afirmó Doucet, ya que le permitió trabajar fácilmente con los modelos de OpenAI para aplicar la detección de cuestiones legales dentro de su propia firma. A largo plazo, a medida que estas herramientas se vuelvan más sofisticadas, Doucet cree que podrían revolucionar los servicios jurídicos: una mayor eficiencia reduciría los costos legales, lo cual, a su vez, podría ampliar el acceso a la justicia.
Los beneficios de la inteligencia artificial generativa en el ámbito legal
El software AI.law de Doucet y la herramienta principal de Casetext, CoCounsel, están diseñados como asistentes o colegas jurídicos con inteligencia artificial, en línea con el enfoque de “copiloto” que se adopta en otras disciplinas. En términos generales, sus creadores afirman que el objetivo no es reemplazar a los profesionales del derecho, sino delegar tareas complejas para lograr resultados más rápidos y de mayor calidad.
Las áreas más demandantes en términos de tiempo dentro de un litigio son, como era de esperar, las más atractivas para la automatización. Griffin describió la fase de descubrimiento como el ámbito de “mayor riesgo y mayor recompensa” para la introducción de inteligencia artificial generativa, y fue una de las primeras áreas que Doucet abordó con AI.law.
“Cada socio le asigna a los asociados junior la tarea de redactar las respuestas de descubrimiento, porque es un aspecto muy tedioso y poco agradable del trabajo”, señaló Doucet. “Nosotros lo hemos reducido de entre cuatro y ocho horas a solo dos minutos”.
De forma similar, CoCounsel incluye funciones como la revisión de documentos y la edición de contratos, que resultan particularmente eficaces cuando los abogados deben revisar grandes volúmenes de información en poco tiempo.
“A veces, lo que nos impide avanzar no son las piezas más importantes y estratégicas”, comentó Heller. Más bien, se trata de tareas agotadoras y repetitivas como formatear citas o extraer información relevante de miles de páginas. Como ejemplo, Heller relató el uso de una herramienta de inteligencia artificial en una investigación para analizar años de correos electrónicos, mensajes de Slack y textos en pocos días, en lugar de semanas o incluso meses. “La idea de revisar millones de documentos en cuestión de días antes de esta tecnología era prácticamente impensable”, dijo
Griffin también señaló que la inteligencia artificial generativa puede ser útil en áreas que no involucran directamente la práctica del derecho, como recursos humanos y operaciones. “Creo que hay muchas oportunidades para automatizar tareas administrativas”, indicó. “Hay muchísimas cosas por las que ahora pagamos grandes sumas simplemente porque el proceso es increíblemente ineficiente”.
Limitaciones de la inteligencia artificial generativa en el ámbito jurídico
A pesar de los diversos beneficios de la inteligencia artificial generativa en el ámbito jurídico, la adopción real sigue siendo baja en comparación con el interés. Con frecuencia existe una “diferencia entre lo que [los despachos] dicen públicamente y en relaciones públicas, y lo que están haciendo y lo que realmente ocurre en el mundo real”, señaló Griffin. “El porcentaje de despachos que han comprado o intentado implementar algo es muy pequeño”
Esto es coherente con hallazgos más amplios en la industria. Una investigación realizada por Enterprise Strategy Group, ahora parte de Omnia de Informa TechTarget, en agosto de 2023 reveló que solo el 4 % de las organizaciones encuestadas había implementado una iniciativa madura de inteligencia artificial generativa en producción, aunque muchas más manifestaron interés en la tecnología o la habían explorado mediante proyectos piloto.
Esa cautela no necesariamente es negativa, ya que adquirir herramientas de inteligencia artificial generativa sin un plan claro sobre su uso a menudo termina en decepción y desilusión. A veces, según Griffin, sus clientes descubren que compraron la tecnología sin tener un problema que resolver. En su lugar, aconseja a los despachos jurídicos identificar primero sus necesidades y luego determinar si la inteligencia artificial puede satisfacerlas.
“Desde una perspectiva de buenas prácticas, siempre empiece por el problema”, indicó. “No compre la tecnología solo para preguntarse luego ‘¿qué podemos hacer con ella?’ ... Asegúrese de tener un plan antes de comprar”, señaló.
Además, la inteligencia artificial generativa todavía presenta limitaciones notables, especialmente en áreas complejas como el litigio, en comparación con tareas más formuladas como la redacción de contratos. Griffin citó la redacción de mociones como un ejemplo de una tarea menos estandarizada que sigue siendo difícil para que la inteligencia artificial generativa la desempeñe correctamente.
“[Las mociones] son mucho menos estandarizadas, lo cual hace que sea muy difícil, en mi opinión, desarrollar un producto que cubra suficientes necesidades del mercado como para que la gente quiera usarlo”, afirmó.
Heller señaló que existe un subconjunto de tareas que los humanos actualmente realizan mucho mejor que la inteligencia artificial, y quizás siempre será así. Estas incluyen la estrategia general, como decidir cómo llevar un caso o interpretar un largo historial de contexto empresarial, así como habilidades interpersonales como detectar comportamientos sospechosos en un testigo clave o hablar persuasivamente en la sala del tribunal.
“Si piensa en los datos con los que estas inteligencias artificiales han sido entrenadas, se trata de lo que está en internet”, como libros y artículos, indicó Heller. “Pero cualquiera con experiencia real en la práctica jurídica sabe que hay mucho que no puede capturarse en un libro. Se adquiere mediante la experiencia, la formación y la observación”.
El problema de las alucinaciones
La precisión es fundamental en la práctica jurídica y en la toma de decisiones judiciales. Un documento que contenga alucinaciones –contenido incorrecto generado por un modelo de inteligencia artificial generativa– podría llevar a interpretaciones erróneas de leyes, precedentes o hechos.
Un modelo puede ofrecer fácilmente una explicación sobre un caso emblemático de la Corte Suprema como Brown v. Board of Education, una decisión ampliamente documentada en internet. Pero una sentencia sobre un punto legal específico de un tribunal distrital tiene muchas menos probabilidades de formar parte del conocimiento que el modelo ha memorizado.
El problema radica en que los modelos de gran lenguaje (LLM) están entrenados para predecir la combinación de palabras más probable estadísticamente en respuesta a una solicitud, no para proporcionar información factual precisa. Esto significa que tienden a ofrecer alguna respuesta, incluso si la correcta no está contenida en sus datos de entrenamiento.
“Siempre hay un incentivo para responder”, dijo Heller. “[Los modelos de inteligencia artificial generativa] nunca van a decir: ‘No lo sé’”.
Más preocupante aún es que estos modelos pueden estar equivocados y sonar muy convincentes al mismo tiempo. Si se aceptan como válidas, las alucinaciones podrían afectar potencialmente el resultado de los casos legales. Y si un juez descubre que un abogado ha introducido contenido alucinado por inteligencia artificial en un escrito judicial, esto podría tener consecuencias graves.
“Si usted es abogado y ocurre algo grave, su licencia profesional está en juego”, afirmó Griffin.
Las implicaciones éticas de utilizar una herramienta que podría generar información falsa o engañosa son significativas, especialmente en un contexto jurídico donde cada palabra puede tener un gran peso. Aunque no siempre está claro quién debería ser responsable de las imprecisiones en las respuestas generadas por inteligencia artificial, los primeros casos sugieren que los abogados podrían ser los responsables.
En junio de 2023, un juez federal sancionó a los abogados Peter LoDuca y Steven Schwartz por haber confiado en jurisprudencia inexistente inventada por ChatGPT en un escrito legal. El juez P. Kevin Castel, del Distrito Sur de Nueva York, subrayó que el problema no fue que los abogados utilizaran una herramienta de inteligencia artificial, sino que no verificaron la precisión de su contenido ni informaron su uso cuando se descubrieron los casos ficticios.
“No hay nada inherentemente inapropiado en utilizar una herramienta confiable de inteligencia artificial como apoyo”, escribió Castel en su orden de sanción. “Pero las reglas existentes imponen a los abogados un papel de guardianes para asegurar la precisión de sus presentaciones”.
Actualmente, tampoco está claro cómo el uso de herramientas de inteligencia artificial que pueden generar alucinaciones podría afectar el cumplimiento de leyes y regulaciones. Los abogados deben respetar normas profesionales estrictas respecto al manejo y presentación de pruebas, así como a la precisión del asesoramiento jurídico. Como mínimo, es crucial implementar procesos estrictos de validación y verificación del contenido generado por inteligencia artificial en entornos jurídicos.
Cómo pueden integrar la IAGen los profesionales del derecho de manera responsable
Un método para abordar las alucinaciones es la generación aumentada por recuperación (RAG), una técnica en la que los modelos de lenguaje pueden acceder a datos de fuentes externas para mejorar la precisión y relevancia de sus respuestas.
Heller, cuyo software Casetext utiliza RAG, comparó la introducción de esta técnica con pasar de un examen a libro cerrado a uno a libro abierto: con RAG, el modelo puede consultar información en tiempo real a la que de otro modo no tendría acceso.
Aunque esto ayuda a garantizar que las respuestas de la inteligencia artificial se basen en documentos jurídicos reales y jurisprudencia, Heller advirtió que ninguna herramienta de inteligencia artificial es infalible. Por ejemplo, incluso una herramienta con RAG podría interpretar mal un texto particularmente denso y complicado. En resumen, los abogados no deberían asumir que la inteligencia artificial es más objetiva o precisa que una persona.
“Como trabajamos con humanos, estamos acostumbrados a trabajar con seres imperfectos”, dijo Heller. “Esto es uno de ellos”.
De manera más amplia, Doucet, Heller y Griffin destacaron la creciente importancia de las habilidades de gestión para los profesionales del derecho que trabajan con inteligencia artificial. Esto va más allá de las verificaciones de precisión para combatir alucinaciones: los abogados deberán aprender a delegar eficazmente, proporcionar instrucciones claras y trazar estrategias utilizando herramientas de inteligencia artificial.
“Ahora, por primera vez, todos –incluido su asociado más joven o su asistente legal– pueden contar con un asistente de inteligencia artificial al que pueden delegar tareas”, indicó Heller. “Pero aprender a gestionar realmente es muy difícil”. Señaló habilidades familiares en la gestión de personas, como dar instrucciones claras, delegar tareas y ofrecer retroalimentación útil.
Cuatro buenas prácticas para el uso de IAGen en el derecho
Aunque introducir inteligencia artificial generativa en la práctica jurídica conlleva ciertos riesgos, los profesionales del derecho pueden tomar medidas para implementarla de la forma más segura y responsable posible.
1. Comprender las capacidades y limitaciones de la inteligencia artificial
Antes de integrar la inteligencia artificial en la práctica diaria del derecho, es esencial comprender lo que esta tecnología puede hacer y, con igual importancia, lo que no puede hacer. Conocer su potencial de errores, sesgos y alucinaciones ayuda a clarificar dónde se necesita supervisión humana.
2. Usar la inteligencia artificial como apoyo, no como sustituto del trabajo humano
En su estado actual, la inteligencia artificial generativa está lejos de reemplazar por completo a un abogado o asistente legal capacitado. Aunque es útil para redactar borradores iniciales, realizar investigaciones preliminares y analizar grandes volúmenes de datos, el contenido generado por inteligencia artificial nunca debe utilizarse sin revisión. Las decisiones finales y la verificación de hechos deben quedar en manos de expertos humanos.
3. Proteger los datos y la privacidad de los clientes
Aunque la regulación de la inteligencia artificial es un área compleja y en rápida evolución, el uso de la inteligencia artificial está casi con certeza cubierto por las leyes existentes sobre privacidad de datos y acuerdos de confidencialidad con los clientes.
Sea cauteloso con los datos que se introducen en los sistemas de inteligencia artificial, especialmente la información sensible de los clientes; por ejemplo, la versión para consumidores de ChatGPT guarda todos los datos por defecto para reentrenar los modelos de OpenAI.
“La clave está en entender sobre qué está construido [un modelo de inteligencia artificial] y comprender qué se quiere hacer con él, y luego definir el riesgo en torno a eso de la misma forma exacta en que se haría con cualquier otra tecnología”, indicó Griffin.
También es importante ser transparente con los clientes sobre cómo se utiliza la inteligencia artificial en sus casos, incluidos los beneficios y riesgos potenciales. Elabore un plan para responder a las preocupaciones de los clientes sobre el uso de la inteligencia artificial generativa, ya que no todos estarán cómodos con el uso de dicha tecnología.
4. Aprender sobre la IA y mantenerse actualizado en el campo
Manténgase informado sobre los últimos avances en inteligencia artificial y sus implicaciones para la práctica jurídica mediante investigaciones en línea y conversaciones con expertos en inteligencia artificial.
Cada vez más, los colegios de abogados también ofrecen educación sobre inteligencia artificial como parte del desarrollo profesional. El pasado otoño, el Colegio de Abogados de la Ciudad de Nueva York organizó una Cumbre sobre Inteligencia Artificial y Aprendizaje Automático para abogados locales, que ofreció créditos de formación jurídica continua.
“En toda revolución hay pérdida de empleos, pero también creo que se genera una cantidad equivalente de oportunidades”, afirmó Griffin. “Sea el primero en aprenderlo, y será indispensable”.
Lev Craig es editor del sitio para TechTarget Enterprise AI, especializado en inteligencia artificial y aprendizaje automático. Anteriormente escribió sobre TI empresarial, desarrollo de software y ciberseguridad, y se graduó de la Universidad de Harvard con una licenciatura en Literatura Inglesa.