16 C
Mexico City
jueves, junio 27, 2024

¡De ciencia ficción! Alertan de que la IA podría provocar la “extinción humana”

CIUDAD DE MÉXICO.- El cofundador y exjefe científico de OpenAI, Ilya Sutskever, ha anunciado en X (Twitter) que ha arrancado una nueva empresa de inteligencia artificial (IA) centrada en la seguridad y que no tiene ninguna intención a corto plazo de vender productos o servicios.

La extinción humana es algo que, de manera general, la gente rechaza. Parece que no nos apetece demasiado dejar de vagar por este mundo nuestro.

De acuerdo con 20Bits, desde que estalló el boom por la inteligencia artificial (IA), expertos en este terreno y en ética tecnológica han advertido sobre los potenciales riesgos existenciales que una IA avanzada podría representar para la humanidad. La creciente preocupación no es solo una cuestión de ciencia ficción, sino un tema de debate serio entre los investigadores y tecnólogos líderes del mundo.

Uno de los temas centrales de este discurso es la aparición de una ‘superinteligencia’, una IA que superaría ampliamente las capacidades cognitivas humanas. Es a lo que en el sector se llama Inteligencia artificial general (AGI).

Una tecnología así podría actuar de maneras que resulten catastróficas para la especie humana, según los expertos, ya que no la podríamos controlar y sus objetivos podrían no estar alineados con nuestros valores y propósitos. Incluso podría considerarnos un obstáculo para lograr sus metas.

Ante estos riesgos, los expertos abogan por un enfoque colaborativo y regulado en el desarrollo de la IA.

Empleados de OpenAI y Google advierten sobre los riesgos de la IA
Recientemente, un grupo de empleados actuales y anteriores de empresas de inteligencia artificial, incluidas OpenAI y Google DeepMind, ha expresado su preocupación por los riesgos que plantea esta tecnología en una carta abierta. En ella afirman que los motivos financieros de las empresas de IA obstaculizan una supervisión efectiva.

Advierte además sobre los riesgos de la IA no regulada, que van desde la difusión de información errónea hasta la pérdida de sistemas de IA independientes y la profundización de las desigualdades existentes, lo que podría resultar en la “extinción humana”.

Las empresas de IA tienen “obligaciones débiles” de compartir información con los gobiernos sobre las capacidades y limitaciones de sus sistemas, decía la carta, y agrega que no se puede confiar en que estas empresas compartan esa información voluntariamente.

Ilya Sutskever al rescate
La posibilidad de que la IA avanzada represente un riesgo existencial para la humanidad no es un simple escenario de ciencia ficción, sino una preocupación seria entre los expertos en tecnología.

El desarrollo seguro y ético de la IA, junto con la implementación de medidas de seguridad y cooperación global, será crucial para evitar que esta tecnología se convierta en una amenaza para nuestra propia existencia.

Con esto en mente, el cofundador y exjefe científico de OpenAI, Ilya Sutskever, ha anunciado este miércoles en X que lanza una nueva empresa de inteligencia artificial centrada en la seguridad y que no tiene ninguna intención a corto plazo de vender productos o servicios.

La empresa emergente se llama Safe Superintelligence Inc., —Superinteligencia segura, en español—, tiene oficinas en Palo Alto (California) y Tel Aviv, en Israel —país donde Sutskever creció—, y su objetivo y producto es crear un sistema de inteligencia artificial seguro y potente.

Sutskever empezó a hacerse conocido cuando a finales de 2023 lideró una iniciativa para destituir a Sam Altman, CEO de OpenAI, la empresa donde entonces trabajaba. El mes pasado se despidió de esta compañía diciendo haber tenido una buena relación con el equipo.

“Después de casi una década, tomé la decisión de dejar OpenAI”, informaba Sutskever en X. “La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de Sam Altman, Greg Brockman, Mira Murati y, ahora, bajo el excelente liderazgo de investigación de Jakub Pachocki. Fue un honor y un privilegio haber trabajado juntos y los extrañaré muchísimo a todos. Hasta luego y gracias por todo”.

El que fue jefe científico de OpenAI adelantaba algo sobre sus siguientes pasos: “Estoy emocionado por lo que viene a continuación: un proyecto que es muy significativo para mí personalmente y sobre el cual compartiré detalles a su debido tiempo”.

Ahora ya sabemos de qué se trataba: “Estamos reuniendo un equipo ágil y competente formado por los mejores ingenieros e investigadores del mundo dedicados a centrarse en SSI y nada más”, explica la empresa en un comunicado.

Sutskever dijo a Bloomberg que el primer producto de SSI será una superinteligencia —tecnología que por el momento no existe— segura y que la empresa “no hará nada más” hasta entonces. “(La compañía) Estará completamente aislada de las presiones externas de tener que lidiar con un producto grande y complicado y estar atrapado en una carrera de ratas”, comentó al medio.

Además de Sutskever, SSI está cofundada por Daniel Gross, exlíder de IA en Apple, y Daniel Levy, quien también formó parte de la empresa creadora de ChatGPT, OpenAI, según el medio The Verge.
AM.MX/fm

 

The post ¡De ciencia ficción! Alertan de que la IA podría provocar la “extinción humana” appeared first on Almomento | Noticias, información nacional e internacional.

Artículos relacionados

NOTICIAS

Abrir chat
Hola 👋
¿En qué podemos ayudarte?