Doctora en Medios, Comunicación y Cultura por la UAB, con una tesis con mención cum laude sobre ética, inteligencia artificial y comunicación, el trabajo de Patricia Ventura analiza el papel de la inteligencia artificial en la comunicación y la cultura. Propone soluciones para gobernar a los algoritmos a través de principios éticos, y ponerlos al servicio de una esfera pública digital regida por valores democráticos. Autora del primer informe sobre ética, inteligencia artificial y periodismo (publicado por el Consell de la Informació de Catalunya), ha gestionado la presencia comunicativa en el ámbito digital de marcas como La Vanguardia o VidaCaixa. Hablamos con Patricia cara a cara en el bar del CCCB, sin la intermediación de una plataforma ni el apoyo de ninguna herramienta de “machine learning”.
Le he pedido a ChatGPT: “Haz una lista de 10 preguntas para una entrevista a una periodista y doctora en inteligencia artificial sobre los riesgos actuales que plantea la IA en la sociedad, así como posibles fórmulas para afrontarlos”. ¿Qué te parece, respondes al cuestionario de ChatGPT y, al final, te hago yo mis preguntas?
Adelante.
1. ¿Cómo describirías, en términos generales, los riesgos que plantea la IA en la sociedad actual?
Los principales riesgos son la deshumanización y la aceptación acrítica del papel de la máquina. Si dotamos a las máquinas de autoridad desmesurada, delegaremos decisiones laborales, sociales o jurídicas que deberíamos tomar nosotros. Podríamos instalar un relato “dataísta” en el que, si alimentamos una máquina con datos, nos devolverá un “output” objetivo, e institucionalizar así los prejuicios, porque se ha demostrado que las máquinas pueden tomar decisiones sesgadas.
2. ¿Crees que los beneficios de la IA superan los riesgos actuales?
La inteligencia artificial es como un martillo. Puede servir para clavar un clavo, o para dar a alguien un golpe en la cabeza. ¿Es beneficioso o perjudicial el martillo? Depende de quién y cómo lo utilice.
3. ¿Cuáles son algunos de los riesgos más preocupantes que se derivan del uso de la IA?… por cierto, esta segunda pregunta de ChatGPT se parece mucho a la primera.
Si. Este ejercicio demuestra que las máquinas se pueden equivocar. Por tanto, uno de los riesgos más preocupantes es fiarse demasiado de las máquinas. Les hace falta supervisión humana.
4. ¿Cómo afecta la IA a la privacidad de los usuarios?
Si la IA fuera una receta de cocina, los datos serían sus ingredientes y los algoritmos, los pasos de la preparación. Siempre hacen falta muchos datos. Para obtenerlos, hay que cumplir con el Reglamento General Europeo de Protección de Datos (RGPD), pero no siempre pasa. Por ejemplo, los desarrolladores de ChatGPT no nos explican cómo están entrenando a su sistema.
5. ¿Qué medidas se están tomando actualmente para minimizar los riesgos de la IA en la sociedad?
Precisamente, ChatGPT ha sido prohibido en Italia por el problema apuntado en la pregunta anterior. Europa es una de las áreas con más regulación en este sentido. Existen diversas guías éticas, y ahora se aprobará la Ley AI Act, que califica los sistemas en función de su nivel de riesgo y, según el riesgo, los proveedores deberán cumplir requisitos más o menos rígidos.
6. ¿Crees que las regulaciones actuales son suficientes para proteger a los usuarios de los riesgos de la IA?
Ya he respondido. La máquina plantea preguntas por adelantado, pero no se adapta a lo que el entrevistado va diciendo. Un entrevistador humano me “repreguntará” a partir de lo que he dicho, u obviará alguna pregunta, en función de la respuesta anterior. ¡Pero ChatGPT se repite!
7. ¿Qué papel deberían desempeñar las empresas que desarrollan IA para garantizar la seguridad y privacidad de los usuarios?
El RGPD es muy claro sobre los usos de la IA que afectan a la privacidad. Si tienen un potencial efecto en nuestra vida, tenemos el derecho a no ser objeto de estos usos. Otros aspectos se regularán en la AI Act. La ley suele llevar retraso respecto a la innovación. Pero las empresas tendrían que acogerse a directrices éticas, o generarlas internamente, para no perder la confianza de la ciudadanía, que es de gran valor estratégico. Perderla podría equivaler a perder negocio.
8. ¿Qué recomendaciones le darías a los ciudadanos para protegerse de los riesgos de la IA?
Primero, que vigilen dónde dan sus datos. Que eviten darlos sin criterio o sin revisar las cláusulas de privacidad. Que apliquen espíritu crítico y sepan que ya existe una regulación que les protege. Que participen en debates y pidan a los responsables políticos que intervengan en estas cuestiones, que afectan a la sociedad.
9. ¿Qué medidas se podrían tomar para aumentar la conciencia pública sobre los riesgos de la IA?
Es muy importante educar sobre tecnología con perspectiva humanística. Y, desde los medios de comunicación, colaborar con entidades de alcance comunitario, para promover la información y el espíritu crítico entre amplios sectores de nuestra sociedad.
10. ¿Cómo ves el futuro de la IA en términos de seguridad y privacidad? ¿Qué cambios deberían producirse para garantizar un uso seguro y ético de la IA?
En Europa estaremos más protegidos que en otros países autoritarios o con menos regulación. En la China, sabemos que se usa IA para el control absoluto de la población, asociada a un sistema de puntos que evalúa a los ciudadanos. Pero debemos seguir trabajando. Estas herramientas se desarrollan muy rápido. Si en nuestras economías hiper capitalistas, automatizamos la educación, la salud y la justicia ¿qué dignidad nos quedará a las personas?
Patricia, aquí la persona, paso a preguntar yo. ¿Qué te ha parecido la entrevista que te ha hecho ChatGPT?
Bueno… tampoco ha estado mal. Ha habido algunas cosas en las que un periodista hubiera incidido mejor, de una forma más concreta, menos repetitiva… Pero ha tocado temas importantes que un periodista podía haber tocado. O podría haberse inspirado en ChatGPT para hacer sus preguntas y completarlas con las propias. Nada en contra.
Entre tú y yo, ¿cuál es el principal reto que nos plantean la IA y la innovación tecnológica?
Que seamos capaces de dotarlas de sentido. ¿De qué nos sirve la innovación si los grandes problemas de la humanidad, como la desigualdad o el deterioro del medio ambiente, persisten? Parecemos vivir en un determinismo sobre su productividad y eficiencia, pero no existe un plan claro que defina para qué nos sirven. ¿Quién nos ha preguntado si nos hace falta el ChatGPT? Falta un liderazgo cultural que de sentido a la innovación tecnológica.
Recuerdo a Cambridge Analítica en las elecciones USA, la votación por el Brexit y algo que ocurrió en España. ¿Qué margen de maniobra tenemos si una plataforma privada propone un relato alternativo, manipulado y emocionalmente en línea con grupos sociales seleccionados?
Creo que este tema es importantísimo e implica un gran desafío para las democracias. El hecho de que sean empresas privadas no implica que no deban estar sometida a regulación. Pero este es un mundo global. En Europa regulamos, pero si en el área del mundo donde tiene su sede una plataforma no lo hacen, habrá que encajar la realidad de los diferentes escenarios y países donde se utiliza la IA.
En un momento de crisis de la gobernanza global…
En su día, la ONU llegó a grandes acuerdos mundiales, después de la 1º Guerra Mundial. Recientemente, la UNESCO ha publicó unas guías sobre el uso de la IA. Y creo que, en esta esfera pública tóxica que mencionas, en el que cada vez es más difícil distinguir verdad y mentira, el periodismo debe tener un papel fundamental. Necesitamos un agente que dote de sentido a este alud de contenido, y en quién confiar.
El periodismo vuelve
Sin duda. Y la ciudadanía, que cada vez estará más formada e informada, cuando vea cosas a través de las plataformas comerciales, podrá comprobar su verosimilitud a través de los medios periodísticos. Pero tenemos que hacerlo muy bien. Es el momento de volver a nuestros grandes principios: veracidad, justicia, libertad, responsabilidad. ¡La ética de la comunicación!