Alerta con la IA: al descubierto las filtraciones de datos privados y contraseñas en ChatGPT

-

A lo largo del año pasado, cuando el avance de la inteligencia artificial generativa parecía incontenible gracias al éxito de herramientas como ChatGPT o Midjourney, muchas empresas tomaron medidas para prohibir a sus empleados el uso de estas tecnologías.

Resulta especialmente llamativo el caso de ChatGPT, ya que grandes empresas tecnológicas como Amazon, Apple y Microsoft, esta última siendo la principal impulsora de OpenAI, la desarrolladora del chatbot de IA, advirtieron a sus trabajadores sobre el riesgo significativo que implicaba compartir «datos sensibles» con estas herramientas.

1
Al descubierto las filtraciones de datos privados de ChatGPT

IA

Algunos usuarios de ChatGPT fueron los primeros en descubrir las vulnerabilidades en cuanto a seguridad que presentaba este generador de texto. A través de la creación de alter egos, lograron eludir los parámetros predefinidos por OpenAI, llevando a ChatGPT a ofrecer respuestas controvertidas sobre temas delicados como el holocausto o el tráfico de drogas.

De manera adicional, varios investigadores especializados han señalado que el chatbot de inteligencia artificial puede filtrar información sobre personas reales. Un lector de Ars Technica compartió su experiencia, revelando que ChatGPT estaba filtrando conversaciones privadas que contenían contraseñas y otros datos personales de usuarios sin relación aparente. Chase Whiteside, el lector en cuestión, compartió capturas de pantalla que mostraban nombres de usuario y contraseñas relacionados con un sistema de asistencia utilizado por los empleados de un portal de medicamentos con receta de una farmacia.

Un empleado que estaba utilizando el chatbot de inteligencia artificial parecía estar resolviendo problemas relacionados con el portal. En sus mensajes, expresó su frustración y decepción por la situación, calificándola como «una locura» y destacando la mala construcción del sistema. El usuario mencionó incluso la posibilidad de despedir a una persona específica por los problemas experimentados.

Según lo informado por Ars Technica, además de proporcionar acceso a un usuario ajeno a una conversación privada y a contraseñas, ChatGPT reveló detalles como el nombre de la aplicación que el empleado estaba abordando y el número de la tienda afectada por el problema.

Chase Whiteside, el lector que compartió esta experiencia, explicó que descubrió estas nuevas conversaciones cuando regresó a la aplicación después de realizar una consulta previa. Afirmó que no estaban presentes en su historial la noche anterior, y destacó que no había realizado ninguna consulta relacionada con esas conversaciones filtradas.

El lector también afirmó haber tenido acceso a otras conversaciones filtradas que incluían información como el nombre de una presentación en la que alguien trabajaba, detalles de una propuesta de investigación no publicada y un fragmento de código fuente en PHP.

Ante estos informes, OpenAI ha anunciado que investigará este problema, pero cabe señalar que no es la primera vez que los usuarios de ChatGPT denuncian incidentes similares.

Atrás