Explican que la IA todavía debe demostrar que tiene una inteligencia similar a la del ser humano

La Inteligencia Artificial (IA) ha emergido como uno de los campos tecnológicos más emocionantes y transformadores de nuestra era. A medida que esta tecnología avanza a pasos agigantados, surge la necesidad de comprender su alcance, sus implicaciones y los retos que conlleva su implementación. En este artículo, exploraremos los últimos desarrollos en el campo de la IA, analizaremos los principales desafíos que enfrenta y vislumbraremos el futuro próximo de esta tecnología revolucionaria.

DEFINIENDO LA INTELIGENCIA ARTIFICIAL

La Inteligencia Artificial es un campo de estudio que se enfoca en el desarrollo de sistemas capaces de emular las capacidades cognitivas humanas, como el aprendizaje, el razonamiento y la toma de decisiones. Sin embargo, tal como señala el profesor José Miguel Bello Villarino de la Universidad de Sídney, no existe una definición universalmente aceptada de lo que es la IA.

Él menciona que el National Institute of Standards and Technology (NIST) la define como «un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales».

Además, Bello cita la definición de la Comisión Electrónica Internacional (IEC), que concibe a la IA como «un sistema de ingeniería que genera resultados tales como contenidos, previsiones, recomendaciones o decisiones para un conjunto dado de objetivos definidos por el ser humano. Estas definiciones ponen de manifiesto la capacidad de los sistemas de IA para procesar información, aprender y tomar decisiones de manera autónoma, siempre bajo la supervisión y guía del ser humano.

LA IA EN EL CONTEXTO JURÍDICO Y REGULATORIO

Uno de los principales desafíos en torno a la Inteligencia Artificial radica en su marco regulatorio. Según Bello, a diferencia de Estados Unidos y China, la Unión Europea aún no cuenta con un marco regulatorio establecido para la IA. Esta situación ha llevado a los expertos a recomendar el uso de una «ética dura» y una «ética blanda» para controlar el marco de actuación de esta tecnología.

La «ética dura» se refiere a la creación, modelación o modificación de las leyes existentes en torno a la IA, mientras que la «ética blanda» implica prescribir lo que se debe y no se debe hacer más allá de la normativa vigente. Sin embargo, Bello señala que el uso de la ética como solución plantea sus propios desafíos, ya que «carece de mecanismos para imponer el cumplimiento de estos valores y principios».

En este contexto, la Unión Europea ha publicado un «paquete legislativo» para regular la IA, con medidas complementarias para sistemas de riesgo limitado o alto riesgo, y para prohibir acciones que vayan en contra de los valores fundamentales de la Unión Europea y sus Estados miembros. Estas leyes se encuentran actualmente en proceso de aplicación.

Además, Bello destaca que en 2023, Estados Unidos estableció una orden donde las empresas que crean IA deben registrar los riesgos existenciales o de seguridad, lo que ha sido muy útil para evitar la supervivencia de los sistemas de IA más peligrosos, y que puede servir de ejemplo para el devenir de la Unión Europea.

DESAFÍOS Y SOLUCIONES PARA LA INTELIGENCIA ARTIFICIAL

Según Bello, los profesionales mencionan que la Inteligencia Artificial es una tecnología disruptiva, caracterizada por ser desconocida, con falta de autorregulación, poca participación del sector privado y escasez de un sistema legal adecuado, entre otros desafíos.

Uno de los principales problemas señalados por el profesor es que los sistemas de IA gozan de autonomía, lo que implica que las responsabilidades en la cadena de producción se distribuyen gracias a esta tecnología. Esto, sumado al hecho de que las empresas fomentan la monocultura de la IA, genera un panorama complejo en términos de responsabilidad y rendición de cuentas.

Además, Bello destaca que el sistema de IA «puede seguir aprendiendo del mundo exterior, generar cosas nuevas y, por tanto, no podemos analizar el riesgo total que supone«. Esta capacidad adaptativa y creativa de los sistemas de IA plantea desafíos adicionales en cuanto a la identificación y mitigación de los riesgos asociados a su desarrollo y aplicación.

En cuanto a las soluciones, los expertos mencionados por Bello señalan que la ética se está utilizando como «remedio» para controlar la IA. Sin embargo, como se mencionó anteriormente, esta aproximación enfrenta sus propios desafíos, ya que carece de mecanismos efectivos para garantizar el cumplimiento de los valores y principios establecidos.

En este sentido, la Unión Europea ha dado un paso importante al publicar un «paquete legislativo» para regular la IA, incluyendo medidas para sistemas de riesgo limitado o alto riesgo, y prohibiciones sobre acciones que vayan en contra de los valores fundamentales de la Unión y sus Estados miembros.

Asimismo, el ejemplo de la orden emitida por Estados Unidos en 2023, donde se exige a las empresas que crean IA el registro de los riesgos existenciales o de seguridad, puede servir como un modelo a seguir para la Unión Europea en su esfuerzo por abordar los desafíos de la Inteligencia Artificial.

En resumen, la Inteligencia Artificial representa una de las tecnologías más prometedoras y transformadoras de nuestro tiempo, pero también plantea una serie de desafíos en términos de definición, regulación y gestión de riesgos.

A medida que esta tecnología sigue evolucionando, será crucial que los líderes gubernamentales, las empresas y la sociedad en general trabajen de manera colaborativa para establecer un marco normativo sólido y un enfoque ético que permita aprovechar al máximo los beneficios de la IA, al tiempo que se mitigan sus posibles riesgos y efectos negativos.