Cómo están respondiendo las empresas al aumento de los contenidos de IA
Debido a estos problemas, las grandes empresas tecnológicas están trabajando en formas de mejorar la autenticidad y la procedencia de los medios. Como parte de su conferencia anual Build, Microsoft anunció que sus herramientas Bing Image Creator y Designer ahora tendrían nuevas características de procedencia de medios.
Los usuarios podrán verificar si las imágenes o los videos fueron hechos por IA utilizando métodos criptográficos que incluyen información sobre la procedencia del contenido.
Pero para que este sistema funcione, las diferentes plataformas deben estar de acuerdo con la especificación de la Coalición para la Procedencia y la Autenticidad del Contenido (C2PA).
Del mismo modo, Meta ha lanzado una herramienta llamada Meta Video Seal que puede agregar marcas de agua invisibles a los videoclips hechos por IA.
Esta herramienta de código abierto está pensada para funcionar con el software existente sin ningún problema, lo que facilita la búsqueda de contenidos creados por IA.
Video Seal promete ser resistente a ediciones comunes como el desenfoque y el recorte, a diferencia de las tecnologías de marca de agua más antiguas que tenían problemas con la compresión y manipulación de video.
Problemas y limitaciones
Incluso con estas mejoras, todavía hay problemas para lograr que muchas personas usen estas tecnologías. Muchos desarrolladores pueden dudar en la transición de las soluciones propietarias existentes a opciones de código abierto como Video Seal.
Meta planea realizar talleres en las principales conferencias de IA y crear una tabla de clasificación pública que compare diferentes métodos de marca de agua para que más personas trabajen juntas.
Además, los métodos de marca de agua que tenemos ahora no siempre son lo suficientemente fuertes o efectivos cuando se trata de contenido de video.
Dos enfoques principales para luchar contra el contenido generado por IA
En la batalla contra el contenido generado por IA, han surgido dos estrategias distintas:
- Marca de agua (enfoque preventivo):
- Funciona añadiendo firmas invisibles al contenido en el momento de la creación
- Actúa como un certificado digital que muestra «esto fue hecho por IA»
- Herramientas como Meta Video Seal y las características de procedencia de Microsoft representan este enfoque
- La principal ventaja es la identificación inmediata del contenido de la IA
- Herramientas de detección (enfoque analítico):
- Analiza el contenido existente para determinar si fue generado por IA
- Busca patrones y características típicas del contenido creado por IA
- Especialmente útil para el contenido que no se marcó en la creación
- Estas herramientas forman nuestra segunda línea de defensa
Ambos enfoques son necesarios, ya que se complementan entre sí: la marca de agua evita el uso indebido, mientras que las herramientas de detección ayudan a identificar el contenido no marcado.
Herramientas y tecnologías de detección
El contenido generado por IA se puede encontrar en más formas que solo tecnologías de marca de agua. Las nuevas herramientas de detección utilizan algoritmos complejos para analizar el contenido de texto e imagen.
- Originalidad, los algoritmos de aprendizaje profundo son utilizados por la IA para encontrar patrones en el texto generado por la IA.
- GPTZero analiza las estructuras lingüísticas y las frecuencias de las palabras para diferenciar entre el contenido escrito por humanos y el contenido creado por máquinas.
- CopyLeaks utiliza N-gramas y comparaciones de sintaxis para encontrar pequeños cambios en el lenguaje que podrían ser signos de autoría de la IA.
Se supone que estas herramientas dan a los usuarios opiniones precisas sobre cómo es el contenido real, pero su funcionamiento puede variar mucho.
En conclusión
A medida que avanza la IA generativa, la protección de la autenticidad digital se vuelve cada vez más crucial. Microsoft y Meta están liderando la carga con estándares innovadores para la autenticidad del contenido y la verificación de la procedencia de los medios.
Para combatir los deepfakes de manera efectiva, necesitamos la adopción de estas herramientas en toda la industria y una mayor colaboración entre las empresas tecnológicas. La integridad futura de los contenidos digitales depende de que las tecnologías de detección evolucionen más rápido que el engaño generado por la IA.
De hecho, recientemente hemos cubierto cómo YouTube está tomando medidas similares al introducir nuevas herramientas de detección de IA para creadores y marcas. Su enfoque incluye la identificación de voz sintética y las tecnologías de detección de rostros generadas por IA, lo que demuestra aún más cómo las principales plataformas están trabajando para proteger la autenticidad del contenido en la era de la IA.