Crean fábrica de noticias falsas con inteligencia artificial

Emblema de la organización OpenAI. Imagen: Facebook Emblema de la organización OpenAI. Imagen: Facebook

CIUDAD DE MÉXICO (proceso.com.mx).- Los reporteros clásicos decían que bastaba con que les dieran una línea inicial (entrada o lead, como se dice en la jerga periodísticas) para ser capaces de escribir una historia completa. Lo mismo hacen ahora las computadoras.

Un programa desarrollado por un equipo del instituto de investigación OpenAI es capaz de generar noticias falsas a partir de un algoritmo alimentado con una simple frase.

En una nota publicada por la página web del MIT Technology Review se describe cómo este algoritmo, alimentado por miles de millones de palabras, frases y locuciones, puede crear artículos convincentes por medio de inteligencia artificial.

Con sólo introducir las palabras “Rusia ha declarado la guerra a los Estados Unidos después de que Donald Trump accidentalmente…” , el programa entregó redactada una nota que completó los “datos” faltantes. Y mejor aún: con una prosa clara, sencilla y verosímil.

La máquina agregó que Trump disparó un misil, generó “reacciones” de ambas partes y añadió “contexto histórico” de la relación entre ambos países.

De acuerdo con la nota del MIT, los investigadores de OpenAI se propusieron desarrollar un algoritmo de lenguaje de propósito general, capacitado para traducir texto, responder preguntas y realizar otras tareas útiles.

Sin embargo, pronto se percataron de su potencial como herramienta de engaño.

“Comenzamos a probarlo y descubrimos rápidamente que es posible generar contenido malicioso con bastante facilidad”, dice Jack Clark, director de políticas de OpenAI.

Explica que esta inteligencia artificial podría usarse para automatizar la generación de textos apócrifos sobre temas muy específicos, de los cuales puede primero “aprender” para, con la información obtenida, proceder a distorsionarla de manera automatizada.

“Está muy claro que si esta tecnología madura, y le daría uno o dos años, podría usarse para desinformación o propaganda”, dice Clark. “Estamos tratando de adelantarnos a esto”.

En contraparte, sostiene que esta tecnología podría tener usos benéficos, como mejorar las habilidades de conversación de los chatbots.

OpenAI realiza investigaciones fundamentales de inteligencia artificial, pero también desempeña un papel activo en destacar los riesgos potenciales de ésta.

MIT Technology Review dice que OpenAI puso a su disposición la herramienta de generación de texto para experimentar con ella, aunque por sus implicaciones peligrosas sólo planea poner a disposición del público una versión simplificada.

El avance en la inteligencia artificial está ayudando gradualmente a las máquinas a obtener una mejor comprensión del lenguaje. El trabajo reciente ha progresado al alimentar algoritmos de aprendizaje automático de propósito general con grandes cantidades de texto, dice la nota.

El programa de OpenAI recibió 45 millones de páginas de la web, elegidas a través del sitio Reddit. Y, a diferencia de la mayoría de los algoritmos de lenguaje, no requiere de texto etiquetado o curado. Simplemente aprende a reconocer patrones en los datos que se alimentan.

Richard Socher, experto en procesamiento de lenguaje natural, dijo al MIT estar menos preocupado por el potencial de engaño y desinformación. “No necesitas inteligencia artificial para crear noticias falsas. Es algo que la gente puede hacer fácilmente por sí misma”.

Lo que también existen son los programas para detectar textos generados por computadora, y suelen ser muy efectivos. Pero no están lo suficientemente capacitados todavía para descubrir si son falsos o no. Así lo establece un estudiante del mismo MIT, Tal Schuster.

Comentarios

Load More