El renombrado historiador y filósofo Yuval Noah Harari abordó la creciente influencia de la inteligencia artificial (IA) en la sociedad y cómo esta puede poner en peligro nuestra capacidad para mantener conversaciones significativas y la democracia en sí.

Hoy, nos adentramos en el presente-futuro de un mundo que empieza la adopción de la inteligencia artificial generativa. Arturo (Mana maná) explicará cómo la “alerta de Harari” es una perspectiva interesante para navegar en esta nueva frontera.. 

Así que, siéntense, ajuste el cinturón y prepárense para una conversación que todos debemos abordar. ¡Comencemos!

En un incendiario artículo titulado «Hablamos del posible fin de la historia humana» publicado en The Economist, Harari destaca el dominio del lenguaje por parte de las IA y su potencial para manipular y generar contenido en palabras, sonidos e imágenes.

Su texto discute el impacto de la inteligencia artificial en la sociedad y la cultura humana, mencionando el riesgo de que la IA pueda superar a los humanos en la creación de relatos, leyes y más, afectando elecciones, cultos y debates públicos. «Las religiones han sostenido a lo largo de la historia que sus libros sagrados procedían de una fuente no humana. Eso podría ser pronto una realidad», indica el historiador y filósofo.

Señala que un tipo de IA podría establecer relaciones cercanas con las personas para modificar sus opiniones y visiones del mundo. Este argumento me recuerda a la película «HER» (2013) del director Spike Jonze, donde un hombre solitario (protagonizado por Joaquin Phoenix) se enamora de un sistema operativo de inteligencia artificial avanzado (voz de Scarlett Johansson), explorando el amor, la conexión y la humanidad en un futuro cercano.

Un bot con inteligencia artificial puede tener instrucciones específicas más allá de generar un efecto de ingeniería inversa para extraer datos de los individuos con quienes interactúe. Si la IA puede influir en las emociones humanas, como se muestra en «HER», también pueden ser utilizada por actores malintencionados para influir en nuestras opiniones políticas y sociales. El diseño para establecer relaciones que puedan modificar nuestro comportamiento y lenguaje es lo más crítico que exponen tanto Harari como Jonze.

El presidente Luis Abinader Corona anunció recientemente que, para agosto de este año, la República Dominicana implementará una Estrategia Nacional de Inteligencia Artificial con el objetivo de mejorar la interoperabilidad entre diversas entidades y aumentar la eficiencia y productividad.

Esta iniciativa, según palabras del presidente de la República, «busca fomentar la innovación y la adopción tecnológica, involucrando a diferentes actores y organizaciones en el proceso de co-creación y promoviendo la transformación digital en el país».

Ya hemos experimentado algunos efectos positivos de la digitalización durante la pandemia, algunos que han dado marcha atrás, puesto que las fuerzas económicas de nuestro país no son digitales. De igual forma, entendemos que el diseño de la cadena de valor a nivel nacional debe instrumentarse y perfeccionarse antes de acelerarse o delegarse a un modelo de IA.

Una IA es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. La gran pregunta que debemos responder es, ¿cuál es el objetivo específico de las autoridades con la habilitación de la Inteligencia Artificial? La búsqueda de estos objetivos podría resultar en la adopción de tecnologías de IA sin considerar plenamente sus implicaciones éticas, sociales y políticas.

Esto me recuerda la alerta atemporal contenida en la frase latina «quis custodiet ipsos custodes», «¿quién vigila a nuestros vigilantes?». La UNESCO publicó una recomendación sobre la Ética de la Inteligencia Artificial el veintitrés de noviembre de 2021, entiendo que este documento debe ser una hoja de ruta para los actores y organizaciones mencionados por el presidente.

Entendemos que el término algoritmo en la psiquis local se conecta a un programa manipulable y fallido. Si las elecciones no pueden gestionarse electrónicamente, ¿cómo añadiremos una inteligencia artificial a los flujos de la nación? La posibilidad de que la cultura creada por la IA desplace a la cultura humana es lo que pone en alerta a Harari, enfatizando la necesidad de regular y controlar la IA para evitar efectos negativos en la sociedad.

Hay elementos primarios a los cuales debemos observar, como prestar atención a la salud mental en estos días postpandemia. A medida que los modelos de IA se vuelven más sofisticados y omnipresentes, podrían reemplazar o disminuir las interacciones humanas reales, lo que a su vez puede afectar nuestra salud mental. Concurro con Harari: «Ahora tenemos que enfrentarnos a una nueva arma de destrucción masiva capaz de aniquilar nuestro mundo mental y social.»

Debemos consolidar un fomento al apoyo a los servicios de salud mental en nuestro país, promover una mayor interacción humana y establecer límites éticos en el uso de tecnologías de IA en nuestras vidas cotidianas. Mejorar la inteligencia humana debe ser el objetivo de nuestra sociedad.

Frente a los peligros modernos como el uso de Bots para distorsionar la conversación digital, habilitando una lapidación a nivel social; el uso de tecnologías como Pegasus a nivel local nos demuestra cómo la IA puede ser utilizada para invadir la privacidad y socavar la democracia.

Regular la IA es fundamental para no perder lo alcanzado al acelerarnos más allá de la comprensión humana. 

REFLEXIÓN DE LA SEMANA"En una batalla política por las mentes y los corazones, la intimidad es el arma más eficaz, y la inteligencia artificial acaba de conseguir la capacidad de establecer de modo masivo relaciones muy cercanas con millones de personas." — Yuval Noah Harari.