La inteligencia artificial es la herramienta del momento. Con su rápido desarrollo, se han batido récords en poco tiempo con el fenomenal ChatGPT. Sin embargo, sus líderes creen que se necesita un organismo regulador internacional, similar al que rige la energía nuclear. Existe una gran preocupación por el uso malicioso de la herramienta para crear información errónea y Deepfake.
En una publicación en el blog de la compañía, el fundador de OpenAI, Sam Altman, el presidente Greg Brockman y el científico jefe Ilya Sutskiver se unieron para brindar más detalles sobre lo que se puede hacer.
¿Qué dice la publicación del blog de OpenAI?
La gente detrás de OpenAI cree que ahora es el mejor momento para pensar en lo que se llama «gestión de superinteligencia». La compañía cree firmemente que la superinteligencia, los sistemas de inteligencia artificial de los próximos 10 años, serán mucho más poderosos que otras tecnologías con las que se ha enfrentado la humanidad.
Se dice que podemos tener un futuro exponencialmente más próspero, pero necesitamos aprender a gestionar el riesgo para llegar allí. Los autores comentan: «Dado el potencial de peligro existencial, no podemos simplemente ser reactivos. Un Energía nuclear es un ejemplo histórico de uso común de una tecnología con esta característica; La biología sintética es otro ejemplo. «
Finaliza sus primeros apartados diciendo que debemos mitigar los peligros de la tecnología de IA actual, pero que esta superinteligencia requerirá un manejo y una coordinación especiales.
Continúa hablando de esta relación con la necesidad de un organismo regulador, así como la ya existente Agencia Internacional de Energía Atómica, afiliada a las Naciones Unidas, las Naciones Unidas.
«Necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que la superinteligencia se desarrolle de una manera que nos permita mantener la seguridad y ayudar en la integración perfecta de estos sistemas con la sociedad».
«Es posible que eventualmente necesitemos algo como [Agência Internacional de Energia Atômica] para los esfuerzos de superinteligencia. Cualquier esfuerzo que exceda un cierto límite de capacidad (o recursos como computación) debe estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, ordenar auditorías, probar el cumplimiento de estándares de seguridad, imponer restricciones en puntajes de implementación y niveles de seguridad, etc.
La compañía considera importante la participación ciudadana en este proceso
Se argumenta que la gobernanza de sistemas sólidos debe acompañar a la supervisión pública. Creo que las personas de todo el mundo deberían tener la capacidad de decidir democráticamente los límites y estándares para los sistemas de IA. La empresa señala que aún no saben cómo diseñar dicho mecanismo, pero su desarrollo está en etapas de planificación.
Finalmente, se enfatiza que es peligroso impedir la creación de superinteligencia. Destaca sus ventajas y que el número de actores que lo construyen está creciendo rápidamente y es inherentemente parte de la trayectoria tecnológica. La empresa solicita que los procedimientos sean precisos.
Para acceder a la publicación original, haga clic en aquí.
«Beeraholic. Amigo de los animales en todas partes. Malvado erudito de la telaraña. Experto en zombis».
Más historias
Inicia otra ronda de negociaciones entre Comando y Venappan
¿El mercado está mal valorando el mantenimiento de Selec? Sepa qué esperar si ocurren sorpresas antes del nacimiento
La Ranger Black debutó en Argentina sin el motor V6 y con transmisión manual