
ARTDEPARTMENT

Muchas son las personalidades que llevan abriles levantando la voz acerca de los peligros de la inteligencia industrial para los humanos y todavía las empresas lo hacen. Tenemos frases como "la IA nos matará a todos", pronunciada por Eliezer Yudkowsky, un obligado hábil en IA y 'propagandista del racionalismo" o al padrino de la IA Geoffrey Hinton diciendo que parte de él se arrepiente por su trabajo, posteriormente de dejar Google con el objetivo de platicar sobre los riesgos de la inteligencia industrial de forma fugado. En el pasado, todavía lo hizo el obligado verificado Stephen Hawking, ya fallecido.
Hace unos días se conocía sobre una reunión que ha tenido punto en una mansión en San Francisco de 30 millones de dólares, ubicaba en un cuesta vistas al Golden Gate y donde había un reunión de investigadores de IA, filósofos y tecnólogos invitados a un simposio de nombre "Sucesor Digno" (Worthy Successor).

El conferencia giró en torno a una idea del emprendedor Daniel Faggella: El "objetivo casto" de la IA descubierta debería ser crear una forma de inteligencia tan poderosa y sabia que "preferirías con gustillo que ella (y no la humanidad) determine el futuro de la vida".
Como recoge Wired, el emprendedor afirmó que "este evento se centra en la transición poshumana" y no "en la IA militar, que siempre servirá como utensilio para la humanidad". Fueron 100 invitados, se servían bebidas sin vino y aperitivos. El conferencia alojó tres charlas sobre el futuro de la inteligencia industrial.
Faggella declaró al mencionado medio que organizó este evento porque "los grandes laboratorios, quienes saben que la IA probablemente acabará con la humanidad, no hablan de ello porque los incentivos no lo permiten".
Al mismo tiempo, citó los comentarios de líderes tecnológicos como Elon Musk, Sam Altman y Demis Hassabis, quienes "fueron sobrado francos sobre la posibilidad de que la IA nos mate a todos".
El mismo Fagella anunció en su perfil de LinkedIn que entre los invitados y asistentes estaban: fundadores de IA con valoraciones de entre 100 millones de dólares a 5.000 millones de dólares; dos o más personas de todos los laboratorios occidentales que importan; parentela de política/organización de más de 10 laboratorios de fila/evaluación; y "la mayoría de los pensadores filosóficos importantes de AGI" ( o Industrial militar intelligence, incluido el hombre que acuñó el término). De todos modos, la lista de asistentes no fue pública.
El hombre presumió en su red social de que "resulta que puedes anunciar durante 2 abriles sobre temas relacionados con AGI y luego enviarles mensajes privados a la parentela, y ellos responden". Es sostener, que tras abriles escribiendo del tema, su logro es sobrevenir conseguido, según él, la atención de grandes personalidades del sector de la IA.
La primera ponente fue Ginevera Davis, escritora residente en Nueva York, que advirtió que los títulos humanos podrían ser imposibles de trasladar a la IA. Las máquinas podrían no entender nunca lo que significa ser consciente. Por otra parte, propuso una idea ambiciosa indicación "fila cósmica": construir una IA capaz de despabilarse títulos más profundos y universales que aún no hemos descubierto.
La segunda charla fue llevada a final por el filósofo Michael Edward Johnson que argumentó que todos intuimos que un cambio tecnológico radical es inminente, pero carecemos de un situación de principios para abordarlo, especialmente en lo que respecta a los títulos humanos. Según él, si la conciencia es "la cuna del valencia", desarrollar una IA sin comprenderla plenamente es una desafío arriesgada.

En punto de conminar a la IA a seguir las órdenes humanas indefinidamente, propuso un objetivo más arribista: enseñar tanto a los humanos como a nuestras máquinas a despabilarse "el acertadamente".
En tercer punto fue Faggella quien dio su interpretación: cree que la humanidad no durará eternamente en su forma coetáneo y que tenemos la responsabilidad de diseñar un sucesor. Señaló dos rasgos que este sucesor debe tener: conciencia y "autopoiesis", la capacidad de ponerse al día y suscitar nuevas experiencias.

Como recuerda Xataka, no se puede conocer qué hay de cierto en todo esto. La mayoría de los argumentos sobre estos riesgos se basan en opiniones y especulaciones, no en pruebas empíricas o avances concretos. Por ejemplo, investigaciones recientes han demostrado que los sistemas actuales fallan en técnicas básicas de razonamiento.
El promotor del evento lleva años hablando de este tema en su propio blog, solo que ahora ha rematado convencer a varias personas a asistir a un conferencia sobre el tema en la mencionada mansión millonaria californiana.
Vía | Xataka
Imagen | Foto de Nicola Tolin en Unsplash y captura de pantalla de X del ordenador del evento
En Genbeta | Aún no hemos cogido la 'IA militar', pero según OpenAI debemos pensar cómo regularemos el posterior paso: la 'superinteligencia'
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!