Desde la entrada en vigor de la Ley de IA de la UE el año pasado, la Unión Europea ha publicado varias directrices sobre cómo las empresas pueden cumplir mejor con las normas. Creada para proteger los modelos avanzados de IA y fomentar un entorno competitivo e innovador para las empresas de IA, la Ley establece diferentes niveles en función del riesgo que representan los distintos modelos.

El 18 de julio, la UE publicó el lineamiento de la Ley de IA, una guía para empresas que aclara las directrices y consecuencias de la Ley.

«Con las directrices de hoy, la Comisión apoya la aplicación fluida y eficaz de la Ley de IA», declaró Henna Virkkunen, vicepresidenta ejecutiva de la Comisión Europea para Soberanía Tecnológica, Seguridad y Democracia, en declaraciones a Reuters.

Según la legislación de la UE, los modelos de IA se clasifican en uno de cuatro niveles de riesgo: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. La IA clasificada en la categoría de riesgo inaceptable está prohibida en la UE e incluye usos como el reconocimiento facial o la puntuación social.

Otras categorías dependen de la potencia de cálculo de la IA o de las reglas previstas. La UE define los modelos de IA con riesgos sistémicos como aquellos entrenados con más de 1025 operaciones de punto flotante (FLOP). Entre los modelos de IA más populares de esta categoría se incluyen GPT-4 y o3 de OpenAI, Google Gemini 2.5 Pro, los nuevos modelos Claude de Anthropic y Grok-3 de xAI.

La guía de AI Act Explorer se publica aproximadamente dos semanas antes del 2 de agosto, fecha límite para que los modelos de IA de propósito general y aquellos que presentan riesgos sistémicos cumplan con la normativa.

Fuente: TechRepublic | Megan Crouse

Para leer más ingresa a: https://www.techrepublic.com/article/news-eu-ai-act-explorer-guide/?utm_source=flipboard&utm_content=user/TechRepublic

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *