Desde el análisis de grandes cantidades de datos, reconocer patrones o hacer predicciones, pasando por decenas de aplicaciones en los campos de la salud y la ingeniería, hasta el desarrollo de modelos generativos del lenguaje o imágenes, la inteligencia artificial está transformando nuestro mundo, y lo está haciendo a una velocidad jamás observada en otro tipo de tecnología.

Este rápido asentamiento de la IA en diversas facetas de la vida, no obstante, ha hecho a muchos preguntarse sobre algunos inconvenientes asociados a la Inteligencia Artificial. Tanto es así que, desde algunos ámbitos, incluso se ha llegado a plantear la posibilidad de que las máquinas pudieran eventualmente acabar con la propia civilización humana.

El planteamiento del equipo de Giovanni Spitale, investigador del Instituto de Ética Biomédica e Historia de la Medicina de la Universidad de Zúrich, no supone una amenaza tan radical como la planteada por algunos gurús de la tecnología como Elon Musk, sin embargo, expone una cuestión a la que resulta conveniente prestar especial atención: la capacidad de las máquinas para mentir y generar desinformación.

Y es que desde su lanzamiento en noviembre de 2022, el uso generalizado del chatbot ChatGPT ha generado una preocupación pública sobre la difusión de información errónea y desinformación en línea, particularmente en las plataformas de redes sociales. Así, desde el sector más crítico con esta tecnología se ha advertido en diversas ocasiones que los modelos de lenguaje generativo como GPT-3 y su sucesor, GPT-4, podrían emplearse para generar desinformación convincente, ya que debido a su novedad en la esfera pública, son muy pocos estudios los que han examinado cuán efectivos podrían resultar para este propósito.

Para tratar de arrojar algo de luz sobre esta cuestión, el equipo de Spitale llevó a cabo un estudio con 700 participantes con el fin de analizar la capacidad de estos para juzgar la veracidad de la información proporcionada por los modelos de Inteligencia Artificial en las redes sociales, así como para diferenciar si dicha información había sido proporcionada por un ser humano o una máquina.

Entre sus conclusiones, los investigadores encontraron que la mayoría de los sujetos tuvieron problemas para distinguir entre los tuits escritos por humanos y aquellos generados por una IA. También encontraron notables dificultades para discriminar entre información verdadera y falsa en una variedad de temas que fueron desde las vacunas y el autismo, pasando por la tecnología 5G y el COVID-19, hasta el cambio climático y evolución, todos ellos sujetos con frecuencia a conceptos erróneos públicos.

La información falsa generada por los modelos de IA es más susceptible de ser asumida como verdadera.

De hecho, según Spitale, los participantes pudieron identificar con mayor frecuencia la desinformación generada por otros seres humanos que aquella generada por GPT-3; o algo que resulta incluso más perturbador: que la información falsa generada por los modelos de IA es más susceptible de ser asumida como verdadera.

Estos hallazgos implican que los modelos de IA como GPT-3 u otros modelos de lenguaje generativo pueden informar eficazmente a los usuarios de las redes sociales, pero que pueden también desinformar de manera aún más efectiva que los humanos. Según declara Spitale: “nuestros hallazgos plantean preguntas importantes sobre los usos y abusos potenciales de GPT-3 y otros generadores de texto de IA avanzados, y sobre las implicaciones para la difusión de información en la era digital”.

Hasta hace muy poco las máquinas siempre habían sido eso: máquinas. Ahora, no obstante, la Inteligencia Artificial está dotando a estas máquinas de cualidades muy humanas, como mentir, hasta el punto de que de tratar con una máquina, quizá, en el futuro pueda convertirse en una cuestión de confianza: la misma que te inspira tu vecino o un columnista de opinión. 

Facebook Comments