Cómo una historia de Star Wars escrita por IA creó el caos en Gizmodo – The Washington Post

Cómo una historia de Star Wars escrita por IA creó el caos en Gizmodo – The Washington Post

Unas horas después de que James Whitbrook llegara a trabajar en Gizmodo el miércoles, recibió una nota de su editor en jefe: Dentro de 12 horas, la compañía lanzaría artículos escritos por inteligencia artificial. Aproximadamente 10 minutos después, una historia de “Gizmodo Bot” publicada en el sitio sobre el orden cronológico de las películas y programas de televisión de Star Wars.

Whitbrook, editor adjunto de Gizmodo que escribe y edita artículos sobre ciencia ficción, leyó rápidamente la historia, que dijo que no había pedido ni visto antes de que se publicara. Catalogó 18 “inquietudes, correcciones y comentarios” sobre la historia en un correo electrónico al editor en jefe de Gizmodo, Dan Ackerman, y señaló que el bot puso la serie de televisión de Star Wars “Star Wars: The Clone Wars” en el orden incorrecto y omitió cualquier mención. de programas de televisión como “Star Wars: Andor” y la película de 2008 también titulada “Star Wars: The Clone Wars”, los títulos de las películas y el titular de la historia tenían un formato incorrecto, tenían descripciones repetitivas y no contenían un “descargo de responsabilidad explícito” de que fue escrito por AI excepto por la línea de autor “Gizmodo Bot”.

El artículo provocó rápidamente una protesta entre los empleados que se quejaron en el sistema de mensajería interno de Slack de la empresa de que la historia plagada de errores estaba “dañando activamente nuestra reputación y credibilidad”, mostraba “cero respeto” por los periodistas y debería eliminarse de inmediato, según los mensajes obtenidos. por The Washington Post. La historia se escribió usando una combinación de Google Bard y ChatGPT, según un miembro del personal de G/O Media familiarizado con el asunto. (G/O Media posee varios sitios de medios digitales, incluidos Gizmodo, Deadspin, The Root, Jezebel y The Onion).

“Nunca tuve que lidiar con este nivel básico de incompetencia con ninguno de los colegas con los que trabajé”, dijo Whitbrook en una entrevista. “Si estos AI [chatbots] Ni siquiera puedo hacer algo tan básico como poner una película de Star Wars en orden una tras otra, no creo que puedas confiar en eso. [report] cualquier tipo de información precisa.”

La ironía de que la agitación estaba ocurriendo en Gizmodo, una publicación dedicada a cubrir tecnología, era innegable. El 29 de junio, Merrill Brown, director editorial de G/O Media, citó la misión editorial de la organización como una razón para adoptar la IA. Debido a que G/O Media posee varios sitios que cubren tecnología, escribió, tiene la responsabilidad de “hacer todo lo posible para desarrollar iniciativas de IA relativamente temprano en la evolución de la tecnología”.

“Estas características no reemplazan el trabajo que actualmente realizan los escritores y editores”, dijo Brown al anunciar a los empleados que la compañía lanzaría una prueba para probar “nuestro pensamiento editorial y tecnológico sobre el uso de la IA”. “Habrá errores y serán corregidos lo antes posible”, prometió.

La prueba plagada de errores de Gizmodo habla de un debate más amplio sobre el papel de la IA en las noticias. Varios reporteros y editores dijeron que no confían en los chatbots para crear artículos bien informados y verificados minuciosamente. Temen que los líderes empresariales quieran introducir la tecnología en las salas de redacción sin suficiente precaución. Cuando las pruebas salen mal, arruinan la moral de los empleados y la reputación del medio, argumentan.

Los expertos en inteligencia artificial dijeron que muchos modelos de lenguaje grandes todavía tienen deficiencias tecnológicas que los convierten en una fuente no confiable para el periodismo, a menos que los humanos estén profundamente involucrados en el proceso. Si no se controlan, dijeron, las noticias generadas artificialmente podrían difundir desinformación, sembrar discordia política e impactar significativamente a las organizaciones de medios.

“El peligro es para la confiabilidad de la organización de noticias”, dijo Nick Diakopoulos, profesor asociado de estudios de comunicación e informática en la Universidad Northwestern. “Si va a publicar contenido que es inexacto, entonces creo que probablemente será un golpe de credibilidad para usted con el tiempo”.

Mark Neschis, un vocero de G/O Media, dijo que la compañía estaría “abandonada” si no experimentara con IA. “Creemos que la prueba de IA ha tenido éxito”, dijo en un comunicado. “De ninguna manera planeamos reducir el personal editorial debido a las actividades de IA”. Agregó: “No estamos tratando de escondernos detrás de nada, solo queremos hacer esto bien. Para hacer esto, tenemos que aceptar prueba y error”.

En un mensaje de Slack revisado por The Post, Brown les dijo a los empleados descontentos el jueves que la compañía está “ansiosa por recopilar cuidadosamente y actuar sobre los comentarios”. “Habrá mejores historias, ideas, proyectos de datos y listas que se presentarán a medida que luchemos con las mejores formas de usar la tecnología”, dijo. La nota atrajo 16 emoji de pulgar hacia abajo, 11 emoji de papelera, seis emoji de payaso, dos emoji de palma de la mano y dos emoji de caca, según capturas de pantalla de la conversación de Slack.

Las organizaciones de medios de comunicación están luchando por cómo usar los chatbots de IA, que ahora pueden crear ensayos, poemas e historias que a menudo no se pueden distinguir del contenido creado por humanos. Varios sitios de medios que han intentado usar IA en la recopilación y redacción de noticias han sufrido desastres de alto perfil. G/O Media parece no inmutarse.

A principios de esta semana, Lea Goldman, subdirectora editorial de G/O Media, notificó a los empleados de Slack que la empresa había “comenzado pruebas limitadas” de historias generadas por IA en cuatro de sus sitios, incluidos AV Club, Deadspin, Gizmodo y The Comida para llevar, según los mensajes vistos por The Post. “Puedes detectar errores. Es posible que tenga problemas con el tono y/o el estilo”, escribió Goldman. “Soy consciente de que se opone a este escrito general y que sus respectivos sindicatos ya han intervenido y seguirán interviniendo con objeciones y otros asuntos”.

Los empleados respondieron rápidamente con preocupación y escepticismo. “Ninguna de las descripciones de nuestro trabajo incluye editar o revisar contenido producido por IA”, dijo un empleado. “Si querías un artículo sobre el orden de las películas de Star Wars, podrías haberlo preguntado”, dijo otro. “La IA es una solución que busca un problema”, dijo un trabajador. “Tenemos escritores talentosos que saben lo que estamos haciendo. Entonces, efectivamente, todo lo que estás haciendo es perder el tiempo de todos”.

Se detectaron varios artículos generados por IA en los sitios de la compañía, incluida la historia de Star Wars en la vertical io9 de Gizmodo, que cubre temas relacionados con la ciencia ficción. En su sitio de deportes Deadspin, un “Deadspin Bot” de IA escribió una historia sobre las 15 franquicias deportivas profesionales más valiosas con valoraciones limitadas de los equipos y fue corregida el 6 de julio sin indicar qué estaba mal. Su sitio de comida, The Takeout, tenía el título de “Takeout Bot”, una historia sobre “las cadenas de comida rápida más populares de Estados Unidos según las ventas” que no proporcionaba cifras de ventas. El 6 de julio, Gizmodo agregó una corrección a su historia de Star Wars y señaló que “las clasificaciones de los episodios eran incorrectas” y se habían corregido.

El sindicato de Gizmodo emitió un comunicado en Twitter denunciando las historias. “Esto no es ético e inaceptable”, ellos escribieron. “Si ve un pie de autor que termina en ‘Bot’, no haga clic en él”. A los lectores que hacen clic en la propia línea de Gizmodo Bot se les dice que estas “historias se produjeron con la ayuda de un motor de IA”.

Diakopoulos, de la Universidad Northwestern, dijo que los chatbots pueden producir artículos de mala calidad. Los bots, que se entrenan con datos de lugares como Wikipedia y Reddit y los usan para ayudarlos a predecir la siguiente palabra que probablemente aparecerá en una oración, todavía tienen problemas técnicos que hacen que sea difícil confiar en ellos para informar y escribir, dijo.

Los chatbots son propensos a veces a inventar hechos, omitir información, escribir un lenguaje que sesga la opinión, regurgitar contenido racial y sexista, resumir mal la información o fabricar citas por completo, dijo.

Las compañías de noticias deben tener “edición en el ciclo” si van a usar bots, agregó, pero dijo que no puede depender de una sola persona, y debe haber múltiples revisiones del contenido para garantizar que sea preciso y se adhiera a el estilo de escritura de la compañía de medios.

Pero los peligros no son solo para la credibilidad de las organizaciones de medios, dijeron los investigadores de noticias. Los sitios también han comenzado a usar IA para crear contenido fabricado, lo que podría potenciar la difusión de información errónea y crear caos político.

El organismo de control de medios NewsGuard dijo que existen al menos 301 sitios de noticias generados por IA que operan “sin supervisión humana y publican artículos escritos en gran parte o en su totalidad por bots” y abarcan 13 idiomas, incluidos inglés, árabe, chino y francés. Crean contenido que a veces es falso, como engaños sobre la muerte de celebridades o eventos completamente falsos, escribieron los investigadores.

Las organizaciones tienen incentivos para usar IA en la generación de contenido, dijeron los analistas de NewsGuard, porque las empresas de tecnología publicitaria a menudo colocan anuncios digitales en los sitios “sin tener en cuenta la naturaleza o la calidad” del contenido, creando un incentivo económico para usar bots de IA para producir como tantos artículos como sea posible para alojar anuncios.

Lauren Leffer, reportera de Gizmodo y miembro del Writers Guild of America, East union, dijo que este es un esfuerzo “muy transparente” de G/O Media para obtener más ingresos publicitarios porque la IA puede crear rápidamente artículos que generan búsquedas y tráfico de clics y Cuestan mucho menos de producir que los de un reportero humano.

Agregó que el juicio ha desmoralizado a los reporteros y editores que sienten que sus preocupaciones sobre la estrategia de inteligencia artificial de la compañía no han sido escuchadas y no son valoradas por la gerencia. No es que los periodistas no cometan errores en las historias, agregó, pero un reportero tiene un incentivo para limitar los errores porque es responsable de lo que escribe, lo que no se aplica a los chatbots.

Leffer también señaló que, hasta el viernes por la tarde, la historia de Star Wars ha obtenido aproximadamente 12 000 páginas vistas en Chartbeat, una herramienta que rastrea el tráfico de noticias. Eso palidece en comparación con las casi 300.000 páginas vistas que ha generado una historia escrita por humanos sobre la NASA en las últimas 24 horas, dijo.

“Si desea dirigir una empresa cuyo único objetivo es engañar a la gente para que haga clic accidentalmente en The error-filled story about Star Wars movies and TV shows demonstrates why artificial intelligence shouldn't be involved in news-gathering, reporters …entonces [AI] podría valer la pena tu tiempo”, dijo. “Pero si quiere dirigir una empresa de medios, tal vez confíe en su equipo editorial para entender lo que quieren los lectores”.

Fuente: https://www.washingtonpost.com/technology/2023/07/08/gizmodo-ai-errors-star-wars/

Foto del avatar

Sylvain Métral

J'adore les séries télévisées et les films. Fan de séries des années 80 au départ et toujours accroc aux séries modernes, ce site est un rêve devenu réalité pour partager ma passion avec les autres. Je travaille sur ce site pour en faire la meilleure ressource de séries télévisées sur le web. Si vous souhaitez contribuer, veuillez me contacter et nous pourrons discuter de la manière dont vous pouvez aider.