Hace unas semanas, OpenAI sorprendió al mundo tecnológico con la presentación de decidió rechazarlo en lugar de aprovechar la propuesta.
Sin embargo, OpenAI se ha convertido en protagonista en esta ocasión por un aspecto diametralmente opuesto a la presentación de su actualización más reciente. Como indica el portal Ars Technica en una reciente publicación, la propia compañía ha confirmado que ha encontrado operaciones de desinformación relacionadas con sus modelos de lenguaje. Así, como la firma reveló, parece ser que Rusia, China, Irán e Israel están utilizando herramientas como ChatGPT o DALL-E para crear textos e imágenes falsas.
Una operación complicada en un año marcado por las elecciones
Según indica Ars Technica en la noticia original, los agentes malintencionados utilizan las herramientas de OpenAI para crear tanto imágenes como información falsa. En la actualidad, la Ia facilita la creación de este tipo de contenido tanto de forma gratuita como sencilla, razón por la que se ha incrementado su uso en los últimos años. Y, teniendo en cuenta que estamos ante un año marcado por las elecciones, ya que cerca de 2.000 millones de personas votarán en las urnas este año, la noticia relacionada con la desinformación llega en el peor momento posible.
En lo que respecta a OpenAI, la firma confirmó su compromiso para batallar estas campañas de desinformación. Sin embargo, las acciones de países como Rusia o China no solo se limitan a crear imágenes y textos falsos: también generan comentarios y respuestas a sus propias publicaciones. Por ello, OpenAI se compromete a luchar contra este tipo de acciones, ya que es consciente que tanto ChatGPT como DALL-E son dos armas muy poderosas que pueden influir en el pensamiento de muchas personas a través de la guerra de la desinformación.