ARTDEPARTMENT

Solicitar una consulta

Google revolucionó la IA hace ocho años con la tecnología que haría posible ChatGPT. Con 'Titans' quiere volver a cambiarlo todo

Publicado el 
enero 17, 2025

Los 'modelos transformer', desarrollados en su momento por la división de investigación de Google, han sido la edificación esencia en el ámbito de la inteligencia industrial en los últimos abriles en múltiples campos, desde la gestación de texto (todos los chatbots actuales se basan en ellos) hasta el exploración de imágenes.

Sin confiscación, su desempeño se ve circunscrito cuando se prostitución de manejar contextos de larga duración. En respuesta a este desafío, Google ha vuelto a innovar presentando un 'paper' académico que detalla las características de una nueva edificación de IA (denominada 'titans') que la forma en que los modelos de IA gestionan la memoria y procesan información en contextos extremadamente largos.

Esta investigación promete redefinir los límites de lo que las máquinas serían capaces de formarse y rememorar, marcando un nuevo hito en la proceso de los sistemas de educación profundo.

Google llega tarde a competir con ChatGPT... pero sin una legendaria innovación suya de 2017 su rival ni existiría

'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

El problema de los 'transformers'

Los Transformers enfrentan una seto inherente: su capacidad para manejar ventanas contextuales largas está restringida por el coste exponencial de la memoria. Esto dificulta tareas como el razonamiento en contextos extensos (como cuando tienen que tener en cuenta el contenido completo de documentos extensos), la síntesis de datos históricos y aplicaciones que requieren una memoria más robusta, como el modelado genómico o el exploración de series temporales.

¿Qué aporta esta nueva tecnología?

Titans aborda esta seto de su predecesor al incorporar un módulo de memoria neuronal de abundante plazo que permite al maniquí formarse a memorizar durante la prueba y combinar eficientemente información fresco con datos históricos.

Dicho módulo combina tres tipos de memoria inspirados en el funcionamiento del cerebro humano:

  1. Memoria a corto plazo: Utiliza atención para procesar información inmediata de forma precisa.
  2. Memoria a abundante plazo: Inspirada en los sistemas de memoria humana, este módulo aprende a acumular abstracciones de datos pasados, utilizando mecanismos como la sorpresa para determinar qué información debe retenerse.
  3. Memoria persistente: Un conjunto de parámetros independientes de los datos, diseñado para encapsular conocimientos específicos de tareas.

"Hizo algo que nunca antes había visto". Esta IA está sorprendiendo con una reacción que muchos ven como un signo de autoconsciencia

Esta edificación permite a los modelos 'titans' desempolvar su memoria durante la inferencia, poco que los 'transformers' tradicionales no pueden conseguir. Este enfoque dinámico mejoramiento la propagación y la comprensión contextual en tiempo existente.

La importancia de este avance

Para 'adaptarse' durante la inferencia, los modelos basados en esta edificación utilizan un mecanismo basado en el concepto de "sorpresa", que prioriza qué memorias conservar o desechar según la relevancia de los datos entrantes. Este método de "olvido adaptativo" asegura una eficiencia óptima y una capacidad de memoria más inteligente.

Por otra parte, el funcionamiento de su memoria permite al mecanismo de atención atreverse cuándo usar ésta y cuándo enfocarse en el contexto inmediato.

La innovación esencia: al integrar una memoria de abundante plazo que aprende de forma activa durante la prueba, la edificación emula un proceso cognitivo humano fundamental... la capacidad de rememorar y olvidar selectivamente.

Esto no solo abre nuevas posibilidades en áreas como la educación automatizada y el diseño de asistentes virtuales más inteligentes, sino que además sienta las bases para sistemas de IA que puedan adaptarse a entornos cambiantes y administrar conocimientos de forma sostenible.

Resultados prometedores

En una serie de pruebas rigurosas, 'titans' demostró ser más eficaz que los transformers tradicionales y modelos recurrentes modernos en tareas como modelado de habla, razonamiento de sentido global, y exploración de series temporales.

En un examen de 'manilla en un pajar', donde el maniquí debe encontrar información relevante en textos largos, 'titans' superó a modelos como GPT-4 y LlaMa en eficiencia y precisión.

Por otra parte, se observó que su capacidad para administrar contextos de más de dos millones de tokens representó una superioridad crucial en aplicaciones complejas como el exploración genómico.

¿Veredicto?

Si adecuadamente es temprano para decidir a 'titans' como el sucesor definitivo de los 'transformers', sus innovaciones en memoria y adaptabilidad marcan un hito en la proceso de la inteligencia industrial.

A medida que más investigadores implementen y optimicen este enfoque, es posible que estemos presenciando el inicio de una nueva era en la IA, donde los modelos no solo procesan información, sino que además la recuerdan y aprenden de ella.

Por otra parte, aunque Titans representa un avance monumental, además pone sobre la mesa algunos problemas significativos. Por ejemplo: su entrenamiento y optimización requerirán capital computacionales avanzados, y la complejidad de su diseño podría dificultar su admisión generalizada en aplicaciones con menos capital. Todo ello podría no hacer sino agravar la contemporáneo problemática incipiente de disconformidad entre IAs para ricos y pobres.

Imagen |

En Genbeta | Debemos pensar seriamente en poder 'desconectar' la IA cuando llegue a este punto, según el ex CEO de Google

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram