De acuerdo con una declaración publicada por el Centro para la Seguridad de la IA, debe ser una prioridad mundial mitigar el riesgo de extinción generado por esta industria, al igual que las pandemias y la guerra nuclear, que ponen en peligro a la sociedad.

Por su parte, decenas de líderes de la industria de la IA, entre académicos e incluso algunas celebridades, pidieron este martes reducir el riesgo de aniquilación global debido a la inteligencia artificial, argumentando que la amenaza de un evento de extinción de la IA debería ser una prioridad global de primer orden.

Sophia, creada en Hong Kong en 2015, luego de 30 años de trabajo de David Hanson, su creador, dice "entender" que los humanos estén preocupados y recelosos del desarrollo de las tecnologías, especialmente de la inteligencia artificial, pero asegura que es un tema que no parará.

La declaración está firmada, entre otros, por Sam Altman, consejero delegado de OpenAI; Geoffrey Hinton, el llamado “padrino” de la IA; altos ejecutivos e investigadores de Google DeepMind y Anthropic; Kevin Scott, director de tecnología de Microsoft; Bruce Schneier, pionero de la seguridad en Internet y la criptografía; Bill McKibben, defensor del clima, y la artista Grimes.

Esta sería una respuesta a la preocupación de varios actores sociales respecto al peligro que supondría una inteligencia artificial descontrolada en el mundo. Pese a que los expertos en IA han afirmado que la sociedad está aún muy lejos de desarrollar el tipo de inteligencia artificial general propia de la ciencia ficción, esto debido a que los actuales chatbots de vanguardia reproducen en gran medida patrones basados en datos de entrenamiento que se les han proporcionado y no piensan por sí mismos.

Un peligro latente

La preocupación a nivel mundial no se ha hecho esperar, y con ella existe una avalancha de exageraciones e inversiones en el sector que ha llevado a reclamar una regulación al principio de la era de la inteligencia artificial, antes de que se produzcan desgracias graves.

Cabe recordar que la pertinencia de esta declaración se debe al éxito viral de ChatGPT de OpenAI, que contribuyó a intensificar la carrera armamentística en la industria tecnológica en torno a la inteligencia artificial.

ChatGPT es un prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. | Foto: ChatGPT

De esta manera, un número cada vez mayor de legisladores, grupos de defensa y expertos en tecnología han hecho saltar las alarmas sobre la posibilidad de que una nueva generación de chatbots potenciados por IA difunda información errónea y desplace puestos de trabajo.

Por su parte, Geoffrey Hinton, el ‘padrino’ de la IA, cuyo trabajo ayudó a dar forma a los actuales sistemas de inteligencia artificial, declaró al medio internacional CNN que decidió dejar su puesto en Google y “denunciar” la tecnología tras darse cuenta “de que estas cosas se están volviendo más inteligentes que nosotros”, explicó el experto.

“Alertas sobre la tecnología que ellos mismos crearon”

Al respecto, Dan Hendrycks, director del Centro para la Seguridad de la inteligencia artificial, dijo a través de un tuit que la declaración propuesta por primera vez por David Kreuger, profesor de IA en la Universidad de Cambridge, no impide que la sociedad aborde otros tipos de riesgo de IA, como el sesgo algorítmico o la desinformación, por ejemplo.

Un café de Tokio ha lanzado un proyecto pionero para utilizar robots como camareros, manejados a distancia por una persona discapacitada. Se llama OriHime-D, pesa 20 kilos y desde hoy atiende como camarero en un café de Tokio.

De igual forma, Hendrycks realizó una comparación de la declaración en mención con las advertencias de los científicos atómicos que en su momento lanzaron “alertas sobre las propias tecnologías que ellos mismos habían creado”, precisó.

Finalmente, a través de su Twitter Hendrycks dijo que: “Las sociedades pueden gestionar múltiples riesgos a la vez; no es ‘o lo uno o lo otro’, sino ‘sí/y’”. Y, agregó que: “Desde una perspectiva de gestión de riesgos, igual que sería imprudente priorizar exclusivamente los daños presentes, también lo sería ignorarlos”.