Mejora la seguridad de tu IA con una idea de Open AI

-

Open AI, la reconocida empresa de inteligencia artificial que ha desarrollado chatbots como ChatGPT, ha introducido una nueva propuesta destinada a mejorar la transparencia y la seguridad de sus modelos de IA: implementar un sistema en el que los propios modelos de IA se supervisen entre ellos.

1
Mejora la seguridad de tu IA con una idea de Open AI

La seguridad y la transparencia de los modelos de inteligencia artificial se han convertido en temas prioritarios para instituciones y empresas a nivel mundial. Expertos como Elon Musk y Stuart Russell han expresado su preocupación por el rápido desarrollo de la IA sin garantizar completamente su seguridad y alineación con los valores humanos.

En respuesta a estas inquietudes, OpenAI, que se destaca como una de las principales empresas en el campo de la inteligencia artificial, ha ideado una estrategia innovadora relacionada con el concepto de IA explicable. La propuesta central consiste en que dos modelos de IA se enfrenten a la misma tarea o problema, como resolver una ecuación matemática o identificar imágenes, y cada modelo debe explicar paso a paso cómo llegó a su solución. El modelo «vigilante» analiza la explicación del otro modelo para detectar errores, inconsistencias o sesgos en su razonamiento. Si se encuentran fallos, el modelo vigilante puede alertar al primer modelo y ayudar a corregir y mejorar el proceso.

Esta iniciativa de OpenAI surge en un momento en que la empresa enfrenta críticas por su enfoque en el desarrollo de inteligencia artificial general (AGI), la capacidad de una IA para alcanzar la inteligencia humana, sin priorizar adecuadamente la seguridad. Para abordar estas críticas, OpenAI no solo ha lanzado el concepto de «discusión entre modelos», sino que también ha establecido una escala de cinco niveles para medir el progreso hacia la AGI.

Actualmente, OpenAI se sitúa en el nivel 1, que corresponde a la IA conversacional conocida como ChatGPT. Sin embargo, la empresa cree que están cerca de alcanzar el nivel 2, donde la IA podría resolver problemas complejos similares a los que resolvería una persona con un doctorado. La idea del modelo «vigilante» es identificar errores o inconsistencias en el razonamiento de estas IAs de nivel 2, lo que ayudaría a detectar y corregir posibles fallos en sus modelos. Este enfoque podría ser un gran avance en la seguridad de la IA o, potencialmente, un paso en la dirección equivocada.

Atrás