“¡Dejen las armas y salgan con las manos en alto!” Pasó hace unos días en la guerra de Ucrania. Un acto de guerra de los más antiguos de la historia… salvo por una novedad: los que se rendían eran soldados rusos reales pero los que los conminaban a rendirse eran robots del ejercito ucraniano, controlados por un operador que se hallaba a kilómetros de distancia del frente de guerra. Por primera vez en la historia una unidad cibernética formada por robots y drones obligaba a rendirse a seres humanos. No es una película de ciencia ficción, es una realidad que se está acelerando. El mismo presidente de Ucrania informaba que durante los primeros meses del año los robots y drones del ejercito ucraniano habían realizado más de 22.000 misiones de combate. Y estamos tan solo en los inicios. Donald Trump ha anunciado su intención de incrementar el presupuesto militar de los Estados Unidos en 445.000 millones de dólares, con inversiones multimillonarias a las aplicaciones de la inteligencia artificial en la industria militar.
El auge y expansión del desarrollo tecnológico nos sitúa ante la gran pregunta: ¿y que pasa si la inteligencia artificial acaba desarrollando conciencia propia? Para el profesor de la UPC y doctor en ingeniería informática, Pau Fonseca, “en estos momentos la inteligencia artificial, no posee conciencia. Funciona con algoritmos que procesan datos, pero no tiene experiencias subjetivas. Es decir, ahora mismo la IA opera a un nivel puramente funcional. Ahora bien, en un futuro próximo es posible que las técnicas de IA evolucionen para acabar generando conciencia genuina, con todo lo que ello implica…”
Impacto en la información y la opinión pública
Esto tendría un impacto en la sociedad que ya se está produciendo. “La inteligencia artificial está acelerando cambios que ya estaban en marcha, pero a una velocidad y a una escala mucho mayores”, señala el doctor europeo en ciencias políticas de la UAB, Raül Tormos. “Por ejemplo, tienen un impacto muy importante en la forma en la que accedemos a la información y como formamos opiniones. Los sistemas de IA pueden personalizar contenidos, pero también amplificar la desinformación, con el riesgo que supone para la calidad del debate público y de la democracia.”
Solo tenemos que pensar en la información (o desinformación) que nos llega continuamente a través de nuestros teléfonos móviles: ¿es compatible esta aceleración tecnológica con la democracia tal como la hemos entendido hasta ahora? “Sí”, afirma el profesor Tormos, “pero no de forma automática. Puede reforzar la democracia si se utiliza bien pero también comporta riesgos: puede amplificar la desinformación, permitir formas más sofisticadas de manipulación o concentrar mucho poder en manos de unas pocas empresas que controlan la tecnología. Por tanto, la clave no es la tecnología sino como se regula y utiliza.”
La urgencia de regular la inteligencia artificial
Lo mismo opina el profesor Fonseca que afirma que “la regulación en el desarrollo tecnológico es vital, igual como lo fue regular el desarrollo de la tecnología nuclear. Es necesario un marco regulador que implique un incremento de la seguridad, de la moral y del bienestar social. Hay que definir quien es el responsable de estos usos de la inteligencia artificial. Todos utilizamos ya mecanismos de inteligencia artificial generativa para mejorar un texto o para generar imágenes, pero la responsabilidad tiene que recaer no sobre la inteligencia artificial sino sobre el usuario.”
Ahora bien, ¿Cómo adecuar este desarrollo tecnológico acelerado con la lentitud en la toma de decisiones de actores clave, como la política o la justicia? “Ya hacemos tarde”, afirma el doctor Fonseca, “porque la tecnología avanza de forma muy rápida y ni la democracia ni la justicia disponen de los instrumentos ni de los expertos para controlar estos procesos de transformación. Estamos ya en el contexto de la sociedad 5.0, la forma sobre como la sociedad se organiza cambia de una forma radical. Se necesitan expertos en el ámbito de la gobernanza que entiendan como funcionan estos cambios para proteger a la propia ciudadanía y hacer un buen uso de la tecnología.”

El peligro real de la desinformación
Un ejemplo ilustra a la perfección los riesgos a los que aluden ambos especialistas. El primer día de los ataques de Estados Unidos e Israel contra Irán una escuela fue bombardeada “por error” y decenas de niñas fueron asesinadas. Grok (IA) viralizó la información falsa que decía que habían sido los propios iraníes quienes habían atacado la escuela, minimizando el ataque y afirmando que las fotografías publicadas de la atrocidad eran imágenes falsas. Aunque luego reconociera su “error” la publicación dónde se decía que “la foto era un atentado de ISIS en Kabul el 2021” acumuló más de 145.000 visualizaciones, mientras que la que reconocía el “error” tan solo alcanzó las 39 visualizaciones. Por tanto, uno de los requisitos imprescindibles para hacer frente a los riesgos de un desarrollo inadecuado de la IA es la existencia de un periodismo objetivo y de una información pública de calidad. La tecnología puede ayudar, pero nunca sustituir al ser humano, que sí tiene conciencia y sí tiene moral.
La ausencia de empatía
Y una última reflexión hablando de periodismo de calidad, ¿alguien sabe que sintieron las niñas de la escuela entre el impacto del primer y del segundo mísil? ¿o de la reacción de sus familiares cuando supieron la tragedia?, es decir, ¿alguien ha informado del “error” desde la perspectiva de las víctimas? Porque cuando se analiza la información con los instrumentos de la IA he encontrado muchos inputs sobre el denominado “error”, atribuido a que la IA confundió una base militar con una escuela porque trabajaba con datos obsoletos… pero absolutamente nada sobre qué siente una niña de diez años cuando escucha el zumbido estridente de una bomba que se acentúa a medida que se acerca. Seguramente, por no decir seguro, porque la inteligencia artificial no tiene, hasta ahora, el sentimiento más noble del ser humano: la capacidad de empatizar con el sufrimiento del considerado “otro”.
