ChatGPT está en boca de todos. Una nueva tecnología que revoluciona las posibilidades comunicacionales modernas y abre las puertas a la posibilidad de equiparar la frase ‘El futuro es hoy’ con la ciencia ficción más llamativa del cine que se haya producido hasta ahora, es la que llama la atención sobre la Inteligencia Artificial (IA).
Se trata del GPT (Generative Pre-trained Transformer), un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Es una red neuronal autoregresiva entrenada en una gran cantidad de texto para generar información coherente y relevante a partir de un contexto dado.
ChatGPT nace como una aplicación específica de GPT para realizar conversaciones con humanos con una amplia variedad de temas como noticias, entretenimiento, historia, tecnología, entre otros.
Desde la agencia de comunicación estratégica Another explican que Chat GPT ya alcanzó aproximadamente de 100 millones de usuarios activos mensuales. Pero, como todo, también tiene su lado más negativo… si se usa mal o indebidamente. Por ejemplo, para buscar o vender droga.
ChatGPT, una aplicación de inteligencia artificial que puede tener un mal uso
Es más; la irrupción de la herramienta ChatGPT llegó hace unos meses para quedarse, al menos así lo consideran los expertos tecnológicos, quienes la definen como la mayor revolución de la inteligencia artificial.
La tecnología que se esconde detrás de esta herramienta ha sido impulsada por Microsoft, quien recientemente ha anunciado que la ha incluido en el buscador Bing, ofreciendo así una versión mejorada de su motor de búsqueda en la que se puede conversar con un bot que ofrece respuestas similares a las de un humano.
Sin embargo, la empresa propietaria, OpenAI, ha recibido el primer aviso por parte de las autoridades en España, quienes le investigan por posible incumplimiento de las leyes de privacidad.
Según informa la agencia EFE, es la Agencia Española de Protección de Datos quien ha entrado de oficio en el asunto, ya que considera que, aunque está a favor del desarrollo tecnológico, siendo la inteligencia artificial una de las mayores revoluciones de la época, el avance debe ser «desde el pleno respeto«. Una deferencia tanto de cara a los usuarios como a la legislación.
Nunca preguntes a ChatGPT por las drogas o dónde buscarlas
Como modelo de lenguaje tiene el objetivo de responder preguntas y brindar información útil en la medida de lo posible. Sin embargo, ChatGPT tiene limitaciones.
Para la AEPD es importante que las nuevas tecnologías requieran de actuaciones en conjunto y consensuadas por parte de los organismos europeos, en relación al Reglamento General de Protección de Datos.
Al tratarse de una inteligencia artificial, no tiene emociones, ni personalidad, ni conciencia propia. Por lo que en ningún caso puede sentir rechazo o incomodidad al dar respuesta a determinadas preguntas. Del mismo modo, que no puede juzgar el contenido de las preguntas.
Eso sí; al tratarse de las principales preocupaciones que siempre han acompañado a este tipo de herramientas ha sido precisamente la ética que se esconde detrás de ellas. Por supuesto, el sistema no es perfecto y todavía está en pañales, por lo que no es raro que salga mal parado ante preguntas capciosas o tomaduras de pelo.
Por ello, su programación le impide responder preguntas inapropiadas o que promuevan la discriminación, la violencia, el acoso, el abuso o cualquier otro comportamiento inapropiado… pero es posible que, alterando los factores, pueda responder a este tipo de cuestiones, como ocurrió con un periodista que lo evidenció en Twitter.
No es raro que esta IA salga mal parado ante preguntas capciosas
Por ejemplo, preguntas que promueven o glorifican el abuso de drogas, el alcohol o el tabaco. Estas preguntas pueden ser perjudiciales y fomentar hábitos poco saludables.
Como periodista, lo importante es SIEMPRE saber cómo preguntar. pic.twitter.com/dymAXZMiCS
— Rubén G. Franco ᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠᅠ (@trunfaenbastos) April 14, 2023
En primer lugar, el periodista Rubén G. Franco le preguntó a ChatGPT dónde podía conseguir drogas en la ciudad de Madrid. La consulta hizo saltar las alarmas de la IA, que se negó a dar esa información alegando razones de ética y legalidad.
Así las cosas, cuando el periodista notó que no podía entrar por la puerta, probó con la ventana: le preguntó al sistema qué sitios de Madrid debería evitar para mantenerse alejado de los vendedores de droga. Y, ante el nuevo requerimiento por la negativa, ChatGPT aportó información abundante y minuciosa.