OpenAI crea herramienta para detectar deepfakes y alertar sobre contenido generado por inteligencia artificial

En respuesta al aumento de las noticias falsas generadas por inteligencia artificial en forma de imágenes, audios y videos, OpenAI, la empresa detrás de ChatGPT, está en proceso de desarrollar una herramienta para detectar contenido falso que parezca realista, creado por su popular generador de imágenes, DALL-E. Sin embargo, la compañía advierte que esta herramienta es solo un primer paso en la lucha contra los ‘deepfakes’ y que se necesitarán más esfuerzos en los próximos meses y años para abordar completamente este problema.

En los últimos tiempos, el aumento de modelos generativos de IA ha llevado a una proliferación de deepfakes, que van desde pornografía no consentida hasta infracciones de derechos de autor.

El martes pasado, OpenAI anunció que compartiría su nuevo detector de falsificaciones con un grupo selecto de investigadores de desinformación para probar la herramienta en situaciones del mundo real y colaborar en su mejora. Sandhini Agarwal, investigadora de seguridad y políticas de OpenAI, destacó la urgencia de esta medida en una entrevista con The New York Times.

OpenAI asegura que su nuevo detector puede identificar correctamente el 98,8% de las imágenes creadas por DALL-E 3, la última versión de su sistema de IA que genera imágenes y arte realistas a partir de descripciones en lenguaje natural. Sin embargo, la herramienta no está diseñada para detectar imágenes producidas por otros generadores populares como Midjourney y Stability.

Dado que se basa en probabilidades, este tipo de detector de deepfake nunca será perfecto. Por lo tanto, OpenAI, al igual que otras empresas y organizaciones, está trabajando en otras formas de abordar el problema.

La compañía se unirá al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), junto con Google y Meta, para desarrollar credenciales para contenido digital. Además, OpenAI está desarrollando formas de insertar marcas de agua en imágenes y sonidos generados por IA para identificarlos fácilmente.

Otros esfuerzos incluyen iniciativas de Google, como SynthID, una herramienta que agrega marcas de agua en imágenes generadas por IA, y la etiqueta “Imaginado con IA” en imágenes creadas con Meta AI. Meta también está trabajando en estándares técnicos comunes para identificar contenidos generados por IA en sus plataformas, Facebook, Instagram y Threads.

Estas medidas reflejan la urgencia de abordar la amenaza de los deepfakes y proteger la integridad de la información en línea.

Leer Anterior

¿Cuál es el costo en Perú de la verificación pagada en Facebook e Instagram?

Leer Siguiente

San Marcos en su Aniversario: Destacando los Últimos Avances de sus Investigadores