Expertos abogan por crear una «consciencia realista» sobre la IA

Expertos reunidos este martes en Bilbao para debatir sobre ética e inteligencia artificial han considerado necesario crear una «consciencia realista» sobre qué es en realidad la IA y como impacta a la sociedad.

Organizada por Spri-Enpresa Digitala y coordinada por Tecnalia, se ha celebrado hoy en la capital vizcaína la jornada «En busca del algorítmico ético: el gran reto de la inteligencia artificial».

Según han destacado los organizadores, la inteligencia artificial es «el presente» y «ya ha quedado lejos su posición de ‘tecnología del futuro'», de forma que «cada vez son más las empresas y organizaciones que se suman al uso de la IA como herramienta para mejorar la eficiencia de sus diferentes procesos de negocio».

Tras añadir que «la automatización, precisión, y rapidez en el análisis de datos complejos son elementos clave que los sistemas de IA dominan a la perfección», así como que su utilidad está «clara», han apuntado que, «para lograr que su impacto sea realmente positivo, a todos los niveles, es necesario crear un balance entre el desarrollo de esta necesaria tecnología y uso responsable y ético. «Solo así, considerando a la IA como una herramienta de ayuda al ser humano, conseguiremos extraer todo su potencial», han asegurado.

En este contexto diferentes expertos han hablado sobre ello en la jornada organizada por Spri-Enpresa Digitala. Después de la presentación de Idurre Apraiz, coordinadora de Bizkaia Enpresa Digitala, la introducción ha corrido a cargo de Juan Carlos Santamaría, director de Comunicación de Inithealth (Grupo Init) y director de Comunicación de OdiseIA, que ha trasladado a los asistentes que desde el área de Salud de OdiseIA buscan «la visión ética en la aplicación de la Inteligencia Artificial en un área tan sensible para los datos y la privacidad como es la Salud, procurando ayudar a un impacto ético de la IA que ayude al desarrollo de proyectos en Salud para que lleguemos a la Medicina de las 5P que tendremos en el futuro».

Idoia Salazar, presidenta de OdiseIA y codirectora del Área de Ética y Responsabilidad, ha explicado que OdiseIA, el observatorio para el impacto social y ético de la inteligencia artificial, es una plataforma formada por expertos nacionales e internacionales en distintas disciplinas de la inteligencia artificial que «trabajan por un objetivo común: impulsar el uso y desarrollo de la IA pero desde una manera responsable y ética».

Actualmente, ha detallado, son casi 150 expertos individuales, complementados con el apoyo de empresas como Mutualidad de la Abogacía, Colegio de Registradores, PwC, entre otras.

Según ha explicado, tienen en marcha «grandes proyectos con Microsoft, Google, Telefónica e IBM para elaborar guías prácticas sectoriales en el uso de la IA» y colaboran «activamente» con la SEDIA, Secretaría de Estado de Digitalización e Inteligencia Artificial, impartiendo cursos a personal de la administración pública.

«Para nosotros es muy importante la divulgación, no solo a los profesionales, sino al público en general. Es necesario crear una consciencia realista sobre qué es en realidad la IA y cómo impacta a la sociedad. Solo así estaremos preparados para asumirla de manera eficiente y efectiva. La IA puede hacer mucho bien, pero también mucho mal. De nosotros depende decidir qué camino tomar con esta tecnología tan disruptiva, y esto se hace con un conocimiento real (sin prejuicios) de ella», ha planteado.

Por su parte, Sergio Gil, responsable de Inteligencia Artificial de Tecnalia, ha hablado sobre las «Implicaciones éticas de la IA en la nueva era digital. Riesgos y beneficios», resaltando que «el concepto de sesgo con la inteligencia artificial ni es tan artificial ni es tan inteligente». Según ha indicado, «la ciencia-ficción tiene más de ficción que de ciencia: las máquinas se alimentan de datos a partir de los cuáles extraen conocimiento (novedoso o ya manifiesto) con el fin de automatizar el proceso de razonamiento».

La jornada ha finalizado con la ponencia de Oscar Lage, responsable de Ciberseguridad y Blockchain de Tecnalia, quien ha dicho que «la falta de confianza en la compartición de datos con terceros es la principal barrera para el crecimiento de la inteligencia artificial y la economía del dato».

En su opinión, «las empresas son conscientes de que compartir información permite el entrenamiento de mejores algoritmos, pero también son conscientes de que una vez compartida la información con terceros pierden el control sobre los mismos».

«Los nuevos algoritmos criptográficos nos van a permitir compartir datos de forma segura, protegiendo tanto el dato como los propios algoritmos o modelos», ha concluido.