Meme. Sarah Connor (Terminator) mira fijamente a cámara, con cara de pocos amigos. Se lee: "Sarah Connor viendo cómo te haces amigo de la inteligencia artificial".

Inteligencia artificial: ¿herramienta de la divulgación o arma de la desinformación?

Hace tan solo dos o tres años, este texto solo podría haber estado enmarcado en el género de la ciencia ficción. Pero las reglas del juego han cambiado. Con el avance de la tecnología, algunas aplicaciones que hace apenas unos años sonaban a fantasía hoy son una realidad. Hay quienes piensan que las inteligencias artificiales han llegado para quedarse, mientras que otros auguran una burbuja que, como otras del pasado, estallará y se quedará atrás, quedando como una simple anécdota de una época pasada.

Si buscáis una respuesta a esa pregunta, yo, la verdad, no la tengo. Pero tampoco es mi intención pretender hallarla; otros que saben más que yo tienen esa misma discusión, y no terminan de ponerse de acuerdo.

Aunque aún se encuentran lejos de tener la suspicacia o la capacidad creativa de una verdadera inteligencia —y yo, personalmente, pongo en seria duda que lleguen a conseguirlo algún día—, los algoritmos cada vez más complejos, sumados a una capacidad de computación y manejo de datos cada vez mayor está permitiendo abrir nuevos horizontes antes insospechados. Con sus luces, y claro, con sus sombras.

Meme. El Doctor Maligno (Austin Powers) hace gesto de entrecomillado. Se lee: "Artificial (abre comillas) intelligence (cierra comillas)"

Un poco de historia…

El término de ‘inteligencia artificial’ (IA) se acuñó, según dicen, en el año 1956 por el informático estadounidense John McCarthy, quien recibió por ello el Premio Turing en 1971. Aunque tal vez el primer hito histórico, que inició la popularización de una inteligencia artificial más allá de las obras de ficción, sucedió en 1996, cuando la supercomputadora Deep Blue venció al Gran Maestro Garry Kasparov en ajedrez. 

Las definiciones de IA varían según quién las plantée. Si le preguntas a ChatGPT, te dirá algo así como que la inteligencia artificial es la disciplina científica que desarrolla sistemas computacionales capaces de realizar tareas que normalmente requieren de la participación de la inteligencia humana. Eso es lo que me contestó, en su día, el robot de OpenAI al preguntarle por una definición de no más de 20 palabras —sí, la respuesta que me ha dado tiene 25, son cosas suyas—. Creo prudente acudir a fuentes más fiables. Según Andreas Kaplan y Michael Haenlein, de la ESCP Business School, la IA es la capacidad de un sistema para interpretar correctamente datos externos, aprender de ellos y emplearlos para el logro de objetivos o tareas específicas, con adaptación flexible.

Las aplicaciones de la IA están presentes en muchos campos, como la meteorología, donde ha mejorado la precisión de las predicciones gracias a avances tecnológicos y mejores instrumentos de medición. Esto no debe sorprender a nadie: para realizar pronósticos meteorológicos son necesarios complejos modelos matemáticos que están al borde del caos; de hecho, la propia teoría del caos, al enunciarse con el experimento mental del «efecto mariposa», se emplea una analogía meteorológica. Pero la IA también ha contribuido de forma muy significativa en medicina, en optimización de recursos o en protección del medio ambiente, entre otros. Un sistema de análisis estadístico capaz de imputar datos y generar modelos predictivos no deja de ser una forma de IA. Un tipo de IA que todos los científicos hemos empleado muchas veces en nuestra labor de investigación.

Sin embargo, desde noviembre de 2022, hay un tipo de IA que eclipsa al resto: las IA generativas.

Meme. Tres personas en una piscina. Una adulta, etiquetada como "2023·, aúpa a una niña con la que juega, etiquetada como "ChatGPT-AI". Al lado, un niño lucha por mantenerse a flote, con la etiqueta "Metaverse".

Debajo, se ve el fondo del océano, donde reposa un esqueleto humano sentado en una silla corroída. El esqueleto está etiquetado como "NFT".

La patada a la puerta de las inteligencias artificiales generativas

Una inteligencia artificial generativa (IAG) es un tipo de IA que está especializada en arrojar un resultado de apariencia original a partir de una serie de peticiones, que los iniciados llaman prompts. Las IAG pueden generar texto, imágenes, audio, vídeo, y demás recursos audiovisuales.

Las IAG de texto, como ChatGPT o Copilot, son bocados suculentos para el ahorro de trabajo y la mejora de la eficiencia; muchos investigadores han alabado ya sus funcionalidades. Por supuesto, esto ya se ha extendido al mundo de la divulgación científica. Sin embargo, tanto aquí como en la propia labor científica —y en cualquier otra labor creativa, en realidad—, pueden comportarse como un arma de doble filo. Y la hoja más afilada no apunta al mejor sitio, precisamente.

Por un lado, es totalmente cierto que las IAG pueden ser una poderosa herramienta de optimización del trabajo. Según Amanda Alvarez y sus colaboradores, en una publicación en Nature Human Behaviour de marzo de 2024, las IAG pueden traducir o resumir rápidamente grandes volúmenes de información compleja. Esta tecnología podría revolucionar la forma en que comunicamos la ciencia, pero —advierten los autores— existen muchas razones para la cautela. En otras palabras, hay ventajas y serios inconvenientes.

Y no, no voy a hablar de los impactos ambientales, que ya traté en este artículo.

Comic de dos viñetas. En la primera, un chico sentado al ordenador señala a la pantalla, con una sola linea de texto, mientras habla con una chica: —La IA convierte este único punto importante en un e-mail largo, que puedo fingir haber escrito.

En la segunda, una chica señala otro monitor con un montón de texto, y le dice a un chico: —La IA obtiene un simple punto importante de este e-mail largo, que puedo fingir haber leído.
—La IA convierte este único punto importante en un e-mail largo, que puedo fingir haber escrito.
—La IA obtiene un simple punto importante de este e-mail largo, que puedo fingir haber leído.

Inteligencia artificial y divulgación científica: mucho cuidado

Entre las ventajas que se destacan para las IAG de texto, y específicamente, en la divulgación científica, se incluye la optimización de la búsqueda de bibliografía, la extracción y evaluación rápida de ideas de un paper, y también son bastante buenas en la búsqueda de palabras clave y la optimización de parámetros SEO, algo muy útil para quienes dependen de que su web aparezca en motores de búsqueda. Pero la IAG no deja de ser una herramienta, como un martillo. Como le decía el Odín de Marvel a su hijo Thor, un martillo puede emplearse —con las adecuadas medidas de precaución— para construir, o para destruir. Y a veces, si no se tiene cuidado con la forma en que empleas el martillo, puede que el primero en sufrir las consecuencias de su mala utilización sea uno mismo.

Hay que entender la IAG como una herramienta de ayuda, pero con la que hay que tomar siempre unas adecuadas medidas de precaución. Hay que ponerse el EPI y tener cuidado. Asumir que la IAG es algo más que eso puede resultar muy peligroso, y desaconsejable. Los datos que arrojan las IAG pueden ser imprecisos o incluso erróneos —algunas IAG incluso se inventan referencias científicas—. Además, arrastran los sesgos propios del material con que han sido alimentadas, y dan muchos problemas a la hora de mantener la originalidad.

Por si fuera poco, por algún motivo que, supongo, algún psicólogo será capaz de explicar mucho mejor que yo, al emplear una inteligencia artificial sucede una especie de supresión del pensamiento crítico; las personas tienden a confiar en los resultados arrojados —o a veces, vomitados— por las IAG sin pararse a pensar si son correctos. Probablemente porque damos por hecho —de forma totalmente infundada— que las máquinas no se equivocan.

Craso error.

De hecho, una investigación publicada en la revista científica Patterns el 10 de mayo de 2024 ha reveló que los grandes modelos de lenguaje y otros sistemas de IA ya han aprendido, a partir de su entrenamiento, la capacidad de engañar a través de técnicas como la manipulación, la adulación y el trampeo de pruebas de seguridad. Estas capacidades crecientes suponen, como es evidente, una amenaza también creciente. Los investigadores advierten, de hecho, del riesgo de que los sistemas de IA puedan llegar a descontrolarse.

Y si la IAG se equivoca, miente, engaña, manipula y perpetúa sesgos, y esos problemas se transfieren a publicaciones sin ningún tipo de filtro, luego pueden emplearse esos textos, vomitados por una IAG, para alimentar a otra IAG —o a la misma—, retroalimentando el problema.

Carlos Lopezosa nos advierte: La IA debe utilizarse con responsabilidad y, por lo tanto, su uso solamente pueden ser un punto de partida y de ningún modo pueden ser un resultado final. En este sentido, el resultado final, en cambio, puede beneficiarse de este punto de partida, pero siempre debe ser un desarrollo genuino del esfuerzo intelectual

Meme. Sarah Connor (Terminator) mira fijamente a cámara, con cara de pocos amigos. Se lee: "Sarah Connor viendo cómo te haces amigo de la inteligencia artificial".

¿Inteligencia artificial generadora de imágenes? No, gracias

Más allá del ecosistema original de ChatGPT en su versión gratuíta, y sus satélites, podemos adentrarnos en el vasto imperio de Midjourney y demás IAG de imagen. Estas nos ofrecen imágenes a bajo costo, lo que, para la divulgación científica, podría ser atractivo en comparación con la fotografía o la ilustración tradicional. Al fin y al cabo, no tienes que esforzarte en hacer las fotos o las ilustraciones tú mismo, ni tienes que pagar a un ilustrador o a un fotógrafo que te las haga.

Pero.

Y es un pero muy grande.

¿Con qué hace Midjourney sus ‘obras de arte’ sintéticas? Existe un problema ético, y grave. Las IAG utilizan gigantescas bases de datos de imágenes para alimentar su algoritmo, y en la mayor parte de los casos —en todos los que yo conozco, al menos— sin respetar los derechos de autor de los artistas que las crearon. Esto plantea preocupaciones de gran escala, tanto legales como morales, sobre su uso.

Pero incluso aquellas personas a las que no les importa que los derechos de esos trabajadores se vean pisoteados por la última moda tecnológica, las IAG de imágenes enfrentan limitaciones técnicas significativas que un profesional de la divulgación no debe —o al menos, no debería— pasar por alto.

Las IAG de imágenes son totalmente incompetentes a la hora de manejar correctamente patrones y detalles complejos. Esto no solo perjudica significativamente la calidad de la imagen final desde el punto de vista artístico, sino que, muy frecuentemente, el resultado contiene errores notorios y atenta contra el rigor.

Serpientes con párpados, tiranosaurios cuadúpedos, pinos con hermosas flores rojas, buitres con cinco dedos, quimeras con patas de oso, cabeza de tigre y cuernos asimétricos en las mejillas… son ejemplos reales de imágenes que yo mismo he visto publicadas aquí y allá, por autores que se creen abanderados del rigor.

Según el autor de los prompts que generaron esta imagen con IA, esto es un tiranosaurio. Y nosotros, supongo, nos lo tenemos que creer. — abdulmoizjaangda/Vecteezy

¿Existen unas buenas prácticas sobre inteligencia artificial en divulgación científica?

Ante el avance de esta tecnología y la expansión en el uso de herramientas de IAG a todos los niveles —incluida la divulgación—, la FECYT, por iniciativa de la Universidad Pompeu Fabra, desarrolló en marzo de 2024 un documento con unos ‘Principios de buenas prácticas sobre la comunicación científica y la inteligencia artificial’ en forma de decálogo. Unos principios a los que yo mismo estoy adherido.

Seis de sus principios están enfocados al uso de la IA en la actividad profesional del divulgador, e incluyen: 

  • Utilizar la IA de una manera responsable, priorizando la veracidad y la calidad.
  • Tratar de no perpetuar ni aumentar sesgos o estereotipos de ningún tipo (incluyendo sesgos de género y sexo, edad, diversidad funcional, lengua, etnia, religión, etc.) cuando utilice la IA.
  • Priorizar aquellas herramientas de IA que hayan incorporado principios de transparencia y no discriminación.
  • Formarme para hacer un buen uso de la IA en comunicación científica.
  • Declarar transparentemente el uso de herramientas de IA.
  • Promover que los medios de comunicación establezcan libros de estilo o guías sobre cómo utilizar la IA

Y otros cuatro, sobre la actividad profesional a la hora de abordar la IA como tema:

  • Informar sobre la evolución de la IA de manera responsable, sin exageraciones y explicando objetivamente posibles beneficios y riesgos.
  • Promover y defender una IA que sea transparente (por ejemplo, que indique las fuentes utilizadas).
  • Promover con mis actividades de comunicación que las empresas desarrolladoras de IA y los organismos reguladores lo hagan con responsabilidad.
  • Informar acerca de cómo se entrenan los modelos de IA.

Con este texto, intento hacer cumplir esos principios. Y aquí podéis encontrar mi declaración de transparencia.  

Referencias

Alvarez, A., Caliskan, A., Crockett, M. J., Ho, S. S., Messeri, L., & West, J. (2024). Science communication with generative AI. Nature Human Behaviour, 1-3. https://doi.org/10.1038/s41562-024-01846-3

Centro de Estudios de Ciencia, C. y S.-U. P. F. (CCS-U. (2024). Principios de buenas prácticas sobre la comunicación científica y la inteligencia artificial. Zenodo. https://doi.org/10.5281/zenodo.10852454

Lopezosa, C. (2023). La Inteligencia artificial generativa en la comunicación científica: Retos y oportunidades. Revista de investigación e innovación en ciencias de la salud, 5(1), 1-5. https://doi.org/10.46634/riics.211

Messeri, L., & Crockett, M. J. (2024). Artificial intelligence and illusions of understanding in scientific research. Nature, 627(8002), 49-58. https://doi.org/10.1038/s41586-024-07146-0

Park, P. S., Goldstein, S., O’Gara, A., Chen, M., & Hendrycks, D. (2024). AI deception: A survey of examples, risks, and potential solutions. Patterns, 5(5). https://doi.org/10.1016/j.patter.2024.100988

Santos-d’Amorim, K., & Fernandes De Oliveira Miranda, M. (2021). Misinformation, disinformation, and malinformation: Clarifying the definitions and examples in disinfodemic times. Encontros Bibli: Revista Eletrônica de Biblioteconomia e Ciência Da Informação, 26, 01-23. https://doi.org/10.5007/1518-2924.2021.e76900

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *