
ARTDEPARTMENT

La sorpresa social con respecto al rápido avance de la inteligencia fabricado (IA) ha dejado de ser un debate meramente técnico para convertirse en una preocupación completo. Y como muestra de ello, más de 800 personalidades de los ámbitos verificado, político, religioso y cultural —entre ellas los pioneros de la IA Geoffrey Hinton y Yoshua Bengio, el cofundador de Apple Steve Wozniak, el exestratega de Donald Trump Steve Bannon, o el príncipe Harry y Meghan Markle— han firmado una carta abierta que pide detener el crecimiento de la 'superinteligencia', una forma por ahora hipotética de IA capaz de exceder al ser humano en todas las tareas cognitivas.
El documento reúne a voces provenientes de casi todos los rincones del espectro ideológico: desde conservadores como Steve Bannon (ex patrón de ministerio de Donald Trump) y Glenn Beck hasta progresistas como Susan Rice (ex embajadora de EE. UU. en presencia de la ONU en tiempos de Obama), o figuras religiosas como el anacoreta y asesor del Papa en temas de IA, Paolo Benanti. Igualmente se sumaron cinco premios Nobel, el patrón Richard Branson o el actor Stephen Fry.
La iniciativa, impulsada por el Future of Life Institute (FLI), no pide una pausa simbólica: reclama una prohibición total del crecimiento de sistemas superinteligentes, que no se oriente hasta que exista un "amplio consenso verificado" sobre su seguridad y un respaldo sabido constatable.
La carta coincide con la publicación de un informe del Future of Life Institute, que muestra un descontento masivo entre los estadounidenses con la velocidad del crecimiento de la IA, y concluye que existe un "desconexión clara entre la encomienda declarada de las principales empresas de IA y los deseos del sabido".
El físico Anthony Aguirre, director ejecutante del FLI, ha sostenido en declaraciones a la NBC que el problema no es sólo técnico, sino todavía tolerante:
"Este camino ha sido predilecto por las empresas y el sistema crematístico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos".
Así, mientras corporaciones como OpenAI, Google, Meta y xAI compiten por alcanzar la señal AGI (o 'IA normal'), la ciudadanía pide cautela, transparencia y control. Según el prospección, realizado entre el 29 de septiembre y el 5 de octubre de 2025,
Mientras tanto, la carrera tecnológica no da señales de detenerse. Meta anunció la creación de un montón dedicado a construir una 'superinteligencia' bajo el nombre Meta Superintelligence Labs, y OpenAI continúa desarrollando modelos cada vez más potentes. Su director ejecutante, Sam Altman, declaró recientemente que demora alcanzar la superinteligencia ayer de 2030 y que,
"vale la pena pasar los riesgos por los beneficios potenciales".

Incluso figuras que ayer alertaron de los peligros, como Elon Musk, ahora lideran empresas volcadas en esa carrera. Musk reconoció este año que hay "sólo un 20 % de posibilidades de aniquilación" si la IA supera a la humana, mientras su empresa xAI sigue avanzando en esa dirección.
Mientras, el citado Geoffrey Hinton (ganador del Premio Turing en 2019, pegado a Bengio y a LeCun) advierte que "en solo unos pocos abriles, los sistemas de IA de vanguardia podrían exceder a la mayoría de las personas en la mayoría de las tareas cognitivas", lo que exige diseñar sistemas "incapaces de dañar a los humanos, ya sea por desalineación o uso desconfiado".
Otro fogueado verificado que respalda el texto es Stuart Russell, profesor de la Universidad de California. Según él, la propuesta
"no pide una prohibición permanente, sino medidas de seguridad adecuadas para una tecnología que, según sus propios creadores, podría causar la acabamiento humana".
Para muchos analistas, esta carta podría convertirse en el momento fundamental del debate completo sobre la gobernanza de la inteligencia fabricado. No sólo ha unido a sectores tradicionalmente enfrentados, sino que refleja una preocupación colectiva por el rumbo que está tomando una tecnología que promete tanto como amenaza.
En palabras de Yoshua Bengio, "debemos asegurarnos de que el sabido tenga una voz mucho más válido en las decisiones que definirán nuestro futuro colectivo".
Mientras tanto, ahí queda la pregunta que plantea Anthony Aguirre, divulgador verificado y cofundador del FLI:
"¿Queremos efectivamente sistemas que sustituyan a los humanos? ¿O preferimos lanzarse, mientras aún podemos, los límites de la inteligencia que estamos creando?"
Imagen | Marcos Merino mediante IA
En Genbeta | "La IA nos matará a todos", afirma uno de los mayores expertos del mundo. No firmó la carta de Elon Musk porque se queda muy corta
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!