Tecnología
Google prueba herramienta con inteligencia artificial para redactar noticias
En el proyecto participan grandes medios de comunicación estadounidenses.
Google está trabajando con importantes medios de comunicación el diseño de una herramienta basada en inteligencia artificial (IA) que ayude a los periodistas a informar y redactar sus historias, anunció el gigante tecnológico este jueves.
El diario estadounidense The New York Times fue el primero en revelar este proyecto, en el que colabora junto a The Washington Post y The Wall Street Journal en los ensayos del nuevo producto.
Citando fuentes anónimas, el reporte del periódico asegura que la herramienta, conocida internamente como “Genesis”, se encuentra en una fase inicial de pruebas, pero lo suficientemente avanzada como para que algunos de los ejecutivos que vieron sus capacidades la consideraran “inquietante”.
“En asocio con medios de comunicación, especialmente los más pequeños, estamos en las primeras etapas de la exploración de ideas para potencialmente proveer herramientas de IA que ayuden a sus periodistas con su trabajo”, avanzó una portavoz de Google en un comunicado.
Agregó que, “sencillamente, estas herramientas no pretenden, ni pueden, reemplazar el papel esencial que tienen los periodistas a la hora de informar, crear y verificar sus historias”.
La herramienta funcionaría como una especie de copiloto para reporteros y editores, ofreciendo opciones de titulares o diferentes estilos de redacción, según la tecnológica.
El anuncio de este proyecto de Google se produce tras la noticia de un acuerdo entre OpenAI y The Associated Press (AP), por el que se le concedió a la firma creadora de ChatGPT una licencia para utilizar los archivos de dicha agencia internacional de noticias desde 1985 para entrenar a la IA.
“El arreglo prevé que OpenAI obtenga la licencia de parte del archivo de textos de AP, mientras que AP aprovechará la tecnología y la experiencia en productos de OpenAI”, afirmaron ambas organizaciones en un comunicado conjunto la semana pasada.
La aparición el año pasado de ChatGPT y otros desarrollos de IA generativa, capaz de crear todo tipo de textos o imágenes a partir de una simple pregunta, causó gran inquietud entre creadores de contenidos, como artistas, autores o periodistas.
Varias demandas han sido interpuestas contra las empresas implicadas, entre ellas OpenAI. Los profesionales las acusan de utilizar sus contenidos sin consentimiento ni remuneración para alimentar sus programas informáticos.
Riesgos de la Inteligencia Artificial
El secretario general de la ONU, Antonio Guterres, advirtió el martes de los riesgos que genera la inteligencia artificial para la paz y la seguridad en el mundo e instó a tomar medidas urgentemente contra una tecnología “sin precedentes”.
“Está claro que la IA va a tener un impacto en todos los aspectos de nuestra vida, en particular la inteligencia artificial generativa, la creadora de imágenes y textos”, declaró Guterres en la primera reunión que el Consejo de Seguridad consagra a este asunto.
Asimismo advirtió que: “La IA generativa tiene un enorme potencial para el bien y para el mal a gran escala”. Al mismo tiempo que estas tecnologías pueden erradicar la pobreza, luchar contra el hambre, curar el cáncer y potenciar la acción climática, las aplicaciones militares y no militares de la IA pueden tener consecuencias graves para la paz y la seguridad mundial.
Por eso, Guterres pidió que para fines de 2026 se establezca un instrumento vinculante para prohibir los “sistemas de armas letales autónomos” que funcionan sin supervisión humana y que “nunca se retire” a las personas del control de las armas nucleares.
Cada vez se utiliza más la inteligencia artificial en materia de seguridad, incluso por la ONU, para identificar esquemas de violencia, vigilancia de los altos el fuego o reforzar el mantenimiento de la paz, la mediación y los esfuerzos humanitarios, según lo confirmó Guterres.
Sin embargo, podrían ser tecnologías de doble filo, porque pueden ser utilizadas también por personas malintencionadas.
“El uso malintencionado de sistemas de inteligencia artificial con fines terroristas, delictivos o estatales podría causar niveles terribles de muerte y destrucción, traumas generalizados y profundos daños psicológicos a una escala inimaginable”, recalcó.