ARTDEPARTMENT

Solicitar una consulta

estas son las nuevas restricciones a herramientas IA

Publicado el 
febrero 3, 2025

Ayer 2 de febrero de 2025 entraron en vigor las prohibiciones de la Ley de IA de sistemas de inteligencia sintético que se consideran de peligro en la Unión Europea. Concretamente hay peligro contra "los derechos fundamentales y la seguridad de las personas". Y aquí vamos a conocer qué herramientas se ven afectadas por la nueva regulación.

Desde ya encontramos ilegales los sistemas de inteligencia sintético que conllevan un "peligro inaceptable", incluidas algunas herramientas de vigilancia predictiva, sistemas de puntuación social e identificación biométrica que categorizan a las personas por raza, orientación sexual y religión.

La inteligencia artificial contribuye a la desigualdad social: hay IA para pobres e IA, muchísimo más potente, para ricos

Incumplir esas prohibiciones de la Ley de IA (conocida como AI Act en inglés) lleva a graves consecuencias. Como recoge Maldita, el 2 de agosto de 2025, la Agencia Española de Supervisión de la Inteligencia Sintético (AESIA), encargada del cumplimiento de la Ley de IA en España, deberá admitir la potestad sancionadora.

ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Multas de hasta 35 millones

Quienes usen los sistemas prohibidos se enfrentan a multas de hasta 35 millones de euros o de hasta el 7% de su facturación total anual mundial. No hay información específica de ChatGPT o de otros similares (a pesar de las pasadas polémicas), como el final en el mercado llegado de China, DeepSeek, aunque mucho se ha hablado de estos sistemas y sus riesgos potenciales.

Sobre chatbots, lo que explica la ley es que "los sistemas de IA pueden utilizarse para ofrecer motores de búsqueda en cadena, en particular en la medida en que un sistema de IA, como un chatbot en cadena, efectúe búsquedas, en principio, en todos los sitios web, incorpore a continuación los resultados a sus conocimientos existentes y utilice los conocimientos actualizados para ocasionar una única información de salida que combine diferentes fuentes de información.

Multa de 220.000€ a una empresa de Alicante por hacer fichar a su plantilla con biometría. Tardaron demasiado en cambiar el sistema

De todos modos, ya hay regulación que marca límites al respecto. La Ley de Inteligencia Sintético (AIA) es una norma acordada por los organismos de la Unión Europea buscando establecer un situación justo popular para la inteligencia sintético en la UE. Esta ley, propuesta inicialmente en abril de 2021, aunque no se implementará ayer de 2026.

En Europa las herramientas de IA de OpenAI ya han vivido ciertas restricciones en sitios como Italia, amparadas, de hecho, por la fuero del Reglamento Genérico de Protección de Datos. En Europa existe una distinción justo entre los datos de dominio conocido y los de expedito uso gracias a la ley GDRP. Asimismo tenemos en junio de 2023 cuando la Eurocámara dio luz verde al Reglamento de Inteligencia Sintético y recogimos en Genbeta las claves de la fuero, entre otros. En marzo de 2024 la UE aprobó una pionera ley de IA que contempla "riesgos inaceptables" para nuestra seguridad.

El Instituto para la Digitalización Democrática resume la nueva reglamentación como que se prohíben usos subliminales como la puntuación social que se lleva a término en China; el registro de emociones en el trabajo o en espacios educativos; o la clasificación biométrica en espacios públicos tipo con cámaras de vigilancia.

Un sumario a los sistemas prohibidos

Concretamente, se prohíbe El artículo 5 del capítulo II de la ley prohíbe la comienzo en el mercado, puesta en servicio y la utilización de los sistemas de IA con características como estas que veremos aquí. Para ver la información completa de la ley al respecto, puedes entrar en este enlace.

Por un flanco, la comienzo en el mercado, la puesta en servicio o la utilización de un sistema de IA que "se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas" con el objetivo o el objetivo de alterar de guisa sustancial el comportamiento de una persona o un colectivo de personas, mermando de guisa apreciable su capacidad para tomar una valentía informada. Es opinar, las IA que usen información totalmente engañosa.

Nuevo golpe de OpenAI a la Unión Europea: la mejor inteligencia artificial del año no llega a España

Por otro flanco, las IA que explote alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su perduración o discapacidad, o de una situación social o económica específica, con la finalidad o el objetivo de alterar de guisa sustancial el comportamiento de dicha persona. Como ejemplifican desde Maldita, si una IA usa exploración de datos para crear anuncios mucho personalizados que aprovechen información sensible de un colectivo.

En tercer puesto, las IA que evalúan o clasifican a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social y si luego esas informaciones provocan un trato perjudicial o desfavorable con destino a determinadas personas físicas o colectivos de personas.

Enfrentamos a DeepSeek contra ChatGPT: sorprende con sus resultados y nos hace dudar si merece pagar ChatGPT Plus

Los sistemas de IA que hagan evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el peligro de que una persona cometa un delito basándose sólo en la elaboración del perfil de una sola persona física.

Asimismo las inteligencias artificiales que creen bases de datos de registro facial mediante la cuna no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión.

Otra prohibición es usar la inteligencia sintético para "inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos" aunque hay una excepción: cuando el sistema de IA esté destinado a ser instalado en el mercado por motivos médicos o de seguridad.

Otro asunto de importancia es la biometría: es ilegal la comienzo en el mercado o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la almohadilla de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual. Cerca de opinar que esta prohibición no incluye el etiquetado o filtrado de conjuntos de datos biométricos adquiridos lícitamente.

Imagen | Foto de Christian Lue en Unsplash

En Genbeta | Los mejores cursos injustificado para asimilar a usar ChatGPT desde cero hasta ingeniería de prompts

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram