noviembre 24, 2024

Los líderes de OpenAI comentan sobre la necesidad de un organismo regulador de IA

Los líderes de OpenAI comentan sobre la necesidad de un organismo regulador de IA

La inteligencia artificial es la herramienta del momento. Con su rápido desarrollo, se han batido récords en poco tiempo con el fenomenal ChatGPT. Sin embargo, sus líderes creen que se necesita un organismo regulador internacional, similar al que rige la energía nuclear. Existe una gran preocupación por el uso malicioso de la herramienta para crear información errónea y Deepfake.

En una publicación en el blog de la compañía, el fundador de OpenAI, Sam Altman, el presidente Greg Brockman y el científico jefe Ilya Sutskiver se unieron para brindar más detalles sobre lo que se puede hacer.

¿Qué dice la publicación del blog de OpenAI?

La gente detrás de OpenAI cree que ahora es el mejor momento para pensar en lo que se llama «gestión de superinteligencia». La compañía cree firmemente que la superinteligencia, los sistemas de inteligencia artificial de los próximos 10 años, serán mucho más poderosos que otras tecnologías con las que se ha enfrentado la humanidad.

Se dice que podemos tener un futuro exponencialmente más próspero, pero necesitamos aprender a gestionar el riesgo para llegar allí. Los autores comentan: «Dado el potencial de peligro existencial, no podemos simplemente ser reactivos. Un Energía nuclear es un ejemplo histórico de uso común de una tecnología con esta característica; La biología sintética es otro ejemplo. «

Finaliza sus primeros apartados diciendo que debemos mitigar los peligros de la tecnología de IA actual, pero que esta superinteligencia requerirá un manejo y una coordinación especiales.

Continúa hablando de esta relación con la necesidad de un organismo regulador, así como la ya existente Agencia Internacional de Energía Atómica, afiliada a las Naciones Unidas, las Naciones Unidas.

«Necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que la superinteligencia se desarrolle de una manera que nos permita mantener la seguridad y ayudar en la integración perfecta de estos sistemas con la sociedad».

«Es posible que eventualmente necesitemos algo como [Agência Internacional de Energia Atômica] para los esfuerzos de superinteligencia. Cualquier esfuerzo que exceda un cierto límite de capacidad (o recursos como computación) debe estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, ordenar auditorías, probar el cumplimiento de estándares de seguridad, imponer restricciones en puntajes de implementación y niveles de seguridad, etc.

La compañía considera importante la participación ciudadana en este proceso

Se argumenta que la gobernanza de sistemas sólidos debe acompañar a la supervisión pública. Creo que las personas de todo el mundo deberían tener la capacidad de decidir democráticamente los límites y estándares para los sistemas de IA. La empresa señala que aún no saben cómo diseñar dicho mecanismo, pero su desarrollo está en etapas de planificación.

READ  Brasil cruza la marca de los 60 millones con vacunación completa contra Covid-19

Finalmente, se enfatiza que es peligroso impedir la creación de superinteligencia. Destaca sus ventajas y que el número de actores que lo construyen está creciendo rápidamente y es inherentemente parte de la trayectoria tecnológica. La empresa solicita que los procedimientos sean precisos.

Para acceder a la publicación original, haga clic en aquí.