ARTDEPARTMENT
Todos sabemos que cualquier mensaje que enviamos a través de una aplicación de transporte está generando un detención impacto en el medio concurrencia porque la abundancia donde guardan toda nuestra información consume muchísima energía.
Desde la presentación de la inteligencia fabricado generativa a manos de todo el mundo y en masa (ChatGPT fue la pionera y la han seguido la de varias empresas), las empresas tienen todavía más datos que acumular porque usamos masivamente estas tecnologías. Hace unos días veíamos cómo la IA no solo consume muchísima energía y malgasta agua, sino que incluso está creando mucha basura electrónica.
El ingeniero director de inteligencia fabricado generativa de Meta, Sergey Edunov, tuvo que cuchichear de este respecto y su respuesta fue sorprendente. Su respuesta: "solo hacen errata dos reactores nucleares" para cubrir la demanda. No es la primera vez que alguno de su sector deje de la creación de una central nuclear para hacer frente a toda esta carga energética de la inteligencia fabricado: Google, Amazon y Microsoft, incluso ven ahí la posibilidad.
Durante una sesión en el Foro de Trabajadores Digitales que se celebró el pasado año en Silicon Valley, dijo que dos plantas eléctricas parecerían ser suficientes para alentar las micción de la humanidad por un año, y que esto parecía ser aceptable.
Las preocupaciones que existen para hacer frente a toda la energía que consume el uso masivo de herramientas IA pueden solucionarse: él afirmó que "definitivamente podemos resolver este problema". A pesar de su optimismo de hace un año, recientemente Meta se ha enfrentado un enorme problema para seguir con su gran plan: la naturaleza y las abejas.
El asunto de cuánto contamina la inteligencia fabricado es objeto de estudio y de preocupación desde que ChatGPT irrumpiera en el mundo hace un año con su revolución.
Como publicaba calcalistech hace un tiempo "esta nueva carrera tecnológica tiene un detención precio oculto, que puede perjudicar los intentos internacionales de frenar la crisis climática, en esta coyuntura tan crítica".
Al igual que la preocupación que había con las criptomonedas y su minado, el uso de la IA "requiere una enorme potencia computacional, que va acompañada de un daño ambiental extraordinario". Según el mensaje de PitchBook, para 2025, el 3,2% de todas las emisiones de carbono del mundo provendrán de granjas de servidores de IA y añadía que "su costo ambiental no hace más que crecer a medida que la industria crece de una guisa que prioriza la expansión en zona de la eficiencia".
Como recordaba Xataka, Meta no es la primera empresa que vincula energía nuclear con inteligencia fabricado. Microsoft incluso desveló sus planes de desarrollar reactores de fisión nuclear para "para alentar los centros de datos en los que residen Microsoft Cloud y su IA".
La firma de Redmond incluso ha invertido en el sector comprando energía de fusión a Helion Energy, startup liderada por Sam Altman. Este hombre, no nos olvidemos, es el líder de OpenAI, la empresa que tiene en su poder grandes herramientas de inteligencia fabricado.
Junto a afirmar que posteriormente de la sesión y estas declaraciones públicas, Edunov aclaró a VentureBeat que sus observaciones se refería a la potencia necesaria para la computación de IA adicional de la nueva afluencia de Nvidias H100, que están diseñados especialmente para manejar aplicaciones de IA y son por lo tanto los más notables.
Recuerda este medio que por otra parte de los H100, hay modelos más antiguos de GPU de Nvidia, así como CPUs AMD e Intel, así como aceleradores de IA de uso exclusivo que hacen inferencia para IA.)
Edunov dijo de todos modos que hay dos aspectos a tener en cuenta cuando hablamos de uso de energía: se necesita para atracar la inferencia y para el entrenamiento. Su primera respuesta abordó la inferencia, donde la mayoría de los procesos se producirán a medida que las organizaciones desplieguen aplicaciones de IA.
Explicó cómo hizo su cálculo simple para el flanco de la inferencia: dijo que Nvidia, el proveedor dominante de procesadores para IA, distribuiría entre un millón y dos millones de sus GPUs H100. Si todos esos GPUS se utilizaron para crear "tokens", dijo que suma cerca de de 100.000 tokens por persona en el planeta por día.
Entrenar LLMs (grandes modelos de jerga) es un liza diferente, dijo Edunov. La principal distrito es obtener datos suficientes para entrenarlos. Dijo que se especuló ampliamente que GPT4 fue entrenado en todo internet. Aquí hizo algunas suposiciones más simples. Todo internet está acondicionado públicamente y afirma que toda esa información, se puede hurtar y desduplicar para que sean menos a la hora de darles uso.
Todavía explicó que la energía no es tanta como parece a primera perspicacia porque "si te centras en la información de calidad, la cantidad será aún pequeño. La cantidad de conocimiento que la humanidad creó a lo dispendioso de los siglos no es tan conspicuo".
Imagen | Foto de Nicolas HIPPERT en Unsplash
En Genbeta| Cuidado con dónde compras la rótulo medioambiental de tu coche: la DGT sólo recomienda éstas
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!