Pensando en la transparencia y seguridad para sus usuarios, Meta lanzó una herramienta innovadora: podrá identificar y clasificar contenidos generados por inteligencia artificial (IA) en las plataformas Facebook, Instagram y Threads. Esta iniciativa, anunciada recientemente por Nick Clegg, director de Asuntos Internacionales de Meta, llega en un momento en el que los usos de la inteligencia artificial son cada vez más extendidos y diversos.
La herramienta, basada en la misma Meta AI lanzada en diciembre, responde a las preocupaciones sobre el uso indiscriminado de la IA para generar información errónea e influir en los procesos políticos. Según datos recientes, casi la mitad de la población mundial votará en las elecciones previstas para 2024, de ahí la importancia de herramientas que reduzcan la difusión de contenidos manipulados o fraudulentos.
Aplicaciones fuera de los límites del meta
Nick Clegg también reveló que la empresa tiene la intención de ampliar el uso de la herramienta para identificar contenido creado por herramientas de otras empresas, como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock. Según Clegg, la creación de esta extensión para la herramienta ya está en marcha, y en los próximos meses deberíamos ver etiquetas en todos los idiomas que admite cada aplicación. La idea es brindar más transparencia al usuario sobre el origen del contenido que consume.
Además, el trabajo de Meta no se limita a los riesgos asociados con la manipulación política. La difusión incontrolada de contenidos ofensivos es otro de los problemas que se pueden mitigar con esta herramienta, como es el caso de los deepfakes de pornografía, que afectan tanto a famosos como a personas anónimas.
Transparencia y colaboración en el panorama de la IA
Si bien Clegg admite que la herramienta no eliminará por completo la producción de imágenes falsas, cree que ciertamente ayudará a reducir su propagación. También reveló la voluntad de la empresa de compartir ampliamente su tecnología abierta, con el objetivo de animar a la industria a trabajar en conjunto y desarrollar estándares comerciales comunes.
Esta preocupación por regular el uso de la tecnología de IA no se limita a Meta. En enero, la empresa californiana OpenAI, que desarrolló el generador de texto ChatGPT, anunció medidas para combatir la desinformación y destacó que no se permitiría el uso de su tecnología con fines políticos.
Con esta nueva herramienta de Meta, los usuarios de diversas redes sociales conectadas podrán sentirse más seguros e informados sobre los contenidos a los que acceden y consumen, lo que podría representar un hito importante en la lucha contra la desinformación y la manipulación en la era digital.
Más historias
Inicia otra ronda de negociaciones entre Comando y Venappan
¿El mercado está mal valorando el mantenimiento de Selec? Sepa qué esperar si ocurren sorpresas antes del nacimiento
La Ranger Black debutó en Argentina sin el motor V6 y con transmisión manual