En Colombia, el juez Juan Manuel Padilla dio un paso audaz al utilizar el conocido “Chat GPT” para hacer consultas en un caso que involucraba a un niño con autismo. El fallo judicial se pronunció a favor del menor de edad, brindando una solución al pedido de su madre de exonerar el pago de tratamientos médicos y de transporte debido a la falta de recursos económicos para afrontarlos. 

“Mundialmente se cuestiona si corresponde regular la Inteligencia Artificial, o si la regulación existente es suficiente. La tecnología es cada día más dinámica, así como la maduración y nuevos desarrollos de algoritmos. La repentina accesibilidad a estas herramientas y disrupción significa que no solo los reguladores comenzaron a actuar en este aspecto, sino que también la industria privada pide y reclama una regulación acorde, a la brevedad”, explicó a Sala de Redacción la Doctora en Derecho y docente de la Universidad de Montevideo, Agustina Pérez. 

Los profesionales del derecho se enfrentan a una nueva realidad en la que el avance tecnológico desafía los métodos tradicionales. Pérez señaló que la Unión Europea trabaja sobre una propuesta de ley para regular la Inteligencia Artificial, que clasifica a los sistemas por “riesgos” y busca limitar la utilización de datos biométricos a través de algoritmos por parte de la administración pública, así cómo “generar transparencia” acerca de sus “funcionalidades”, y “evitar o anticipar sesgos”. 

Al ser consultada sobre la posibilidad de permitir que la Inteligencia Artificial resuelva casos o dicte sentencias sin supervisión humana, Pérez explicó que “hay muchas cualidades que no pueden ser reemplazadas por la IA y que son el gran valor que aporta el ser humano. El algoritmo se nutre de casos anteriores, y puede suceder que muchos de ellos contengan contenido incorrecto, que se generen sesgos y no se tomen en cuenta parámetros actuales que los pueden modificar”.

La celeridad en los procesos, la imparcialidad y hacer un uso más “efectivo” del tiempo son los argumentos principales a la hora de utilizar IA en sentencias judiciales. Pérez citó el caso de China, donde la Fiscalía Popular de Shanghái Pudong se especializa en el tratamiento de “delitos menores”, como “sanciones de tránsito”, y se reconoce por ser “uno de los sistemas más efectivos”.

Asimismo, en Estonia, el Tribunal de Justicia de la IA utiliza el sistema de Inteligencia Artificial llamado “AlphaZero” para apoyar a los jueces en la resolución de casos administrativos de menor complejidad. “Sin embargo, los jueces aún son los responsables de tomar la decisión final basada en la información proporcionada por el sistema de IA”, detalló la abogada. En su opinión “la participación de la IA no debería ser autónoma en casos complejos, sino facilitar la gestión judicial manteniendo la seguridad jurídica”.

Agregó que son varios los asuntos e impactos que tiene la IA en el ámbito jurídico, y citó como ejemplo lo vinculado “a la generación de contenido” y “todo lo relativo a la Propiedad Intelectual, que tiene que actualizarse y contemplar estos nuevos aspectos”. “Los neuro derechos, la interacción y nuevos dispositivos de “IoT” [internet de las cosas] ya relevan datos y ondas cerebrales que dan información sobre sus usuarios”, detalló.

Si bien existen algoritmos que pueden generar textos únicos, existen otros capaces de crear imágenes realistas, como Midjourney, y de clonar voces, como ElevenLabs. La posibilidad de alterar pruebas documentales -cómo fotografías o grabaciones de audio-, genera una gran preocupación en el ámbito legal.  En este sentido, Pérez opinó que las pruebas documentales tradicionales tienen validez y que “lo importante es poder tener mecanismos para corroborar que dichos archivos digitales son originales y no fueron generados por un algoritmo”. “Esto en varios casos, ya puede asegurarse a través de la criptografía que nos facilita ver si el documento fue modificado”, agregó. 

“La tecnología también trae varios mecanismos para asegurar un marco jurídico seguro y veraz. Sería importante que a nivel judicial se dé conocimiento de estas herramientas para poder controlar, así como para las partes para poder impugnar en caso de ser necesario”, subrayó.

Encontrando el punto medio
En la academia, ha surgido una preocupación ante la llegada de Chat GPT, capaz de generar tesis y ensayos académicos de forma automática. Esta situación plantea interrogantes sobre la evolución del pensamiento crítico de los estudiantes en el proceso de aprendizaje. Pérez dijo a SdR que “la persona que hace entrega de un trabajo o monografía, debería contemplar que los datos de los que se nutre (el Chat GPT) pueden estar, por ejemplo, amparados por el derecho de autor”. En este caso, el resultado podría considerarse “plagio”. Dijo y agregó que “en varias ocasiones, se critica el uso de la herramienta como un incentivo a no desarrollar por parte de los estudiantes las habilidades críticas o analíticas”. “Es por eso que debemos encontrar un punto medio para poder generar instancias donde los alumnos consoliden los conceptos base necesarios, para luego sí poder avanzar de la mano de las herramientas tecnológicas”, puntualizó.

Una visión desde dentro
“Hay una cantidad de desarrollos que se están llevado adelante con IA generativa sin ningún marco regulatorio”, dijo a SdR el Director del Centro de Transformación Digital de la UTEC, Juan Marrero, y puntualizó que si bien existen regulaciones para IA, este no es el caso para la inteligencia generativa. Esta última es una rama dentro de la inteligencia artificial que se especializa en crear contenido original a partir de información ya existente que el algoritmo aprende.

Agregó que el tema de la IA “está en boca” de “todos los hacedores de política” y eso es una “muy buena señal”, dado que Uruguay “no escapa” a esta realidad .

Además señaló que la regulación “preocupa y ocupa” bastante en la UTEC. Motivo por el que crearon el Laboratorio de Humanidades Digitales. “Es el espacio donde se encuentra la academia, el sector productivo, el gobierno y la industria digital para desarrollar proyectos de investigaciones aplicadas, que permitan entender e identificar cuál es el impacto que se produce en integrar la tecnologías digitales a las distintas opciones en la humanidad”, explicó.  

Marrero sostuvo que a través de los “proyectos de investigación aplicada” se puede “comenzar a elaborar informes y proporcionar insumos de calidad para los hacedores de políticas” para que “puedan crear marcos regulatorios” con información de la mayor “calidad posible”.

Las instituciones europeas se encuentran  trabajando en la creación de una ley de regulación de la IA, la que sería la primera en su tipo a nivel mundial. Según informó la Agencia Efe, se espera que entre en vigencia en 2026. En esta línea, Marrero explicó que se debe “hacer un trabajo mirando hacia adentro y hacia afuera también; tenemos que estar conectados con lo que está pasando en el mundo, porque la tecnología no entiende de dimensiones geográficas y atraviesa el globo”, y todas “las regulaciones que podamos llegar a generar, tienen que estar en consonancia con algunas de las que se están analizando en otras partes del mundo”, redondeó.

FacebookTwitter