ARTDEPARTMENT

Solicitar una consulta

el de antes de que la IA lo "contaminase"

Publicado el 
julio 24, 2025

Desde el tirada de ChatGPT en 2022, Internet ha entrado en una nueva etapa: esa en la que ya no es posible asimilar con certeza si los textos, imágenes o artículos que encontramos fueron creados por humanos o por máquinas. Y este cambio radical pone una pregunta sobre la mesa de archivistas, tecnólogos, historiadores y usuarios comunes: ¿debemos preservar específicamente el Internet tal como era antiguamente de su 'contaminación' por la IA?

Una vírgula divisoria en la historia digital

La aparición de modelos de jerga avanzados ha generado un comba sin precedentes de contenido automatizado. Esta situación plantea desafíos para quienes estudian la historia, el ampliación tecnológico e incluso el funcionamiento del conocimiento colectivo.

Es asegurar: si el contenido innovador humano desaparece entre una masa creciente de textos sintéticos, ¿cómo podrán las futuras generaciones comprender cómo pensábamos antiguamente de la era de las máquinas?

Los historiadores digitales ya están experimentando problemas a la hora de determinar la autoría, la intencionalidad y el contexto cultural de los documentos que examinan: las fuentes primarias corren el aventura de convertirse en fortuna ambiguos, cuya autenticidad y representatividad serán constantemente puestas en duda.

Rajiv Pant, exdirector de tecnología de The New York Times y The Wall Street Journal, alerta sobre esta amenaza. Afirma que no se tráfico de un problema meramente culto o propio de la ciencia-ficción, sino de una existencia que ya afecta áreas esencia como el periodismo, la investigación científica y los procesos legales:

"Ya no hay una forma fiable de distinguir contenido humano del generado por IA a gran escalera".

¿Preservar lo humano...

Por un banda, hay quienes promueven la creación de archivos "puros", como John Graham-Cumming, de la empresa de ciberseguridad Cloudflare. Para él, la información creada antiguamente de 2022 tiene un valía exclusivo: la compara con el "acero de bajo fondo", un tipo de metal fabricado antiguamente de las pruebas nucleares de 1945 que hoy se utiliza en instrumentos de reincorporación precisión por su pureza.

Graham-Cumming ha osado el sitio lowbackgroundsteel.ai, un repositorio de datos previos a la irrupción de los grandes modelos de jerga. Entre sus iniciativas destaca una copia completa de Wikipedia de agosto de 2022, cuando aún no se detectaban los signos masivos de contribuciones de IA que hoy ya resultan evidentes.

Sin bloqueo, él mismo afirma que no se tráfico de recusar la inteligencia sintético, sino de comprender que incluso ella necesita del delegado humano para funcionar y mejorarse:

"En algún momento, una IA pensará poco que los humanos no habíamos imaginado. Podrá demostrar un teorema matemático o crear poco en realidad nuevo. Y no estoy seguro de que eso deba llamarse 'contaminación'".

Cada vez más gente percibe que sus IAs funcionan peor: las compañías tienen razones poderosas para que así sea

...o custodiar todavía lo sintético?

Sin bloqueo, otros expertos, como Mark Graham del Internet Archive, creen que todavía merece la pena preservar de guisa específica (aunque por separado) el contenido generado por la IA. Para Graham, el objetivo no debe ser tanto preservar el pasado como documentar el presente: su plan consiste en realizar diariamente mil preguntas a diferentes modelos de IA y acumular sus respuestas, como si de un diario digital algorítmico se tratase. Así, se podría registrar (y analizar) la proceso de la IA, creando una crónica de cómo cambian su comportamiento y sus respuestas con el tiempo.

El peligro del 'colapso de modelos'

Más allá de las implicaciones culturales e históricas, conservar contenido humano todavía tiene una utilidad técnica: proteger la calidad futura de la propia inteligencia sintético. Si los modelos se entrenan cada vez más con información generada por otros modelos, existe el aventura de una degeneración progresiva conocida como colapso de modelos.

Esto es así, porque los algoritmos de 'machine learning' dependen en gran medida de los datos con los que son entrenados: si éstos ya han sido generados, reciclados o alterados por otras IA, se entra en un ciclo de feedback sintético que puede debilitar la calidad del enseñanza. Este aberración implica una pérdida de multiplicidad y precisión en los sistemas de IA, lo que terminaría afectando gravemente a su utilidad.

Vía | New Scientist

Imagen | Marcos Merino mediante IA

En Genbeta | Con cada app y web abandonadas, se pierde un poquito del antiguo Internet. Y quienes intentan conservarlo no dan abasto

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram