El pais
SUSCRÍBETE
El CEO de SpaceX, Twitter y el fabricante de automóviles eléctricos Tesla, Elon Musk
El CEO de SpaceX, Twitter y el fabricante de automóviles eléctricos Tesla, Elon Musk. | Foto: AFP

tecnología

Elon Musk predice que pronto llegaría la ‘superinteligencia’ artificial, ¿cómo sería?

En varias ocasiones, el magnate ha abogado sobre la regularización de las IA, ante el riesgo que estas puedan traer a la humanidad.

13 de julio de 2023 Por: Redacción El País

Elon Musk alertó que en unos “cinco o seis años” surgirá una “superinteligencia” artificial, la cual será capaz de superar a cualquier ser humano en cualquier disciplina.

“Eso no significa necesariamente que sea más inteligente que la suma de todos los humanos”, dijo el magnate durante un evento en Twitter junto a dos congresistas estadounidenses, el representante demócrata por California Ro Khanna y el representante republicano por Wisconsin Mike Gallagher.

Este evento, el cual fue realizado a través de la función “Spaces” de la plataforma, tenía el fin de buscar mantener una conversación sobre el futuro y los peligros de la inteligencia artificial (IA).

El magnate Elon Musk podría estar dando su tecnología Starlink a las fuerzas militares de Japón.
El magnate Elon Musk dijo que en cinco años podría lanzarse una "superinteligencia" artificial. | Foto: Getty Images / Bloomberg

Sobre la discusión de la importancia de regular el desarrollo de las tecnologías de la Inteligencia Artificial, los tres participantes estuvieron de acuerdo, sin embargo, cada uno tuvo diferencias en el enfoque.

El representante demócrata Khanna habló a favor de la creación de una agencia al estilo de la Administración de Alimentos y Fármacos (FDA), con especialistas que aseguran la seguridad de los productos en el mercado.

Elon Musk lanza xAI, nueva empresa basada en inteligencia artificial

El pasado miércoles, Elon Musk anunció el lanzamiento de xAI, una nueva empresa centrada en la inteligencia artificial (IA), cuyos detalles se espera sean desvelados el viernes.

“El objetivo de xAI es comprender la verdadera naturaleza del universo”, afirma la start-up en su página web, sin dar más detalles.

El propio Musk explicó en Twitter que la ambición de xAI era “entender la realidad”. La web anuncia una sesión de preguntas y respuestas el viernes en Twitter para hablar de esta recién llegada a la IA.

Especial Seguridad, Inteligencia Artificial
Muchas figuras públicas han advertido sobre el uso de la IA. | Foto: Getty Images

La compañía se estableció formalmente en Nevada en marzo, según el registro corporativo del estado, pero dice que su equipo técnico está basado en el área de San Francisco, California. En el momento de su registro, Musk figuraba como el director de xAI.

Hace varios meses, el multimillonario reconoció que había comprado una gran cantidad de unidades de procesamiento gráfico (GPU), esenciales para el desarrollo de software de IA, sin revelar qué pensaba hacer con ellas.

En una entrevista con el presentador de Fox Tucker Carlson en abril, Musk dijo que planeaba “crear una tercera opción” entre los pesos pesados de la IA, además de Microsoft/OpenAI y Google.

Los dos gigantes tecnológicos han creado las interfaces más avanzadas para la llamada IA generativa.

Según el magnate, un modelo de inteligencia artificial “que se interesara por el universo probablemente no destruiría la especie humana, porque somos una parte interesante del universo. Esperemos que piense así”.

¿La Inteligencia Artificial podría acabar con la humanidad?

Las alarmas han surgido por todas partes: la inteligencia artificial (IA) representa un riesgo existencial para la humanidad y debe ser controlada antes de que sea demasiado tarde.

Pero, ¿cuáles son estos escenarios apocalípticos y cómo se supone que las máquinas acabarán con la humanidad?

Arthur C. Clarke, un famoso escritor británico de ciencia ficción, aseguró en 1964, una época en la que la tecnología no había evolucionado a gran escala,  que las máquinas serían más inteligentes que los humanos, algo que poco a poco se estaría haciendo realidad.
¿La inteligencia artificial (IA) representa un riesgo existencial para la humanidad?, esa es la pregunta que mucho se hacen. | Foto: Getty Images

“Una vez que tengamos máquinas que tengan como objetivo la autopreservación, tendremos un buen problema”, dijo el académico especialista en IA Yoshua Bengio durante una conferencia este mes.

Pero debido a que estas máquinas aún no existen, imaginar cómo podrían condenar a la humanidad es tarea a menudo de la filosofía y la ciencia ficción.

El filósofo sueco Nick Bostrom ha mencionado una “explosión de inteligencia”, que ocurrirá cuando las máquinas superinteligentes comiencen a diseñar a su vez otras máquinas.

Las ideas de Bostrom han sido descartadas por muchos como ciencia ficción, sobre todo porque una vez argumentó que la humanidad es una simulación por computadora y apoyó teorías cercanas a la eugenesia.

Sin embargo, sus pensamientos sobre la IA han tenido una gran influencia, inspirando tanto a Elon Musk como al profesor Stephen Hawking.

*Con información de AFP*

AHORA EN Tecnología