Bruselas insta a evaluar los riesgos de la IA generativa con nuevo código de conducta
La Comisión Europea presentó este jueves un código de conducta voluntario para los desarrolladores de inteligencia artificial generativa, como ChatGPT o Gemini. El documento busca que estos actores evalúen los riesgos de sus modelos, especialmente en cuanto a la difusión de contenido dañino o discriminatorio, y el respeto a los derechos de autor.
Leer también :
- Inteligencia artificial en el centro del conflicto: Meta demandada en Francia
- La Inteligencia Artificial necesita ser inclusiva para erradicar sesgos racistas : UNESCO
Este código, que complementa la Ley de Inteligencia Artificial de la UE, establece directrices claras para cumplir con la normativa, la cual entrará en vigor el 2 de agosto de 2025, aunque su aplicación efectiva podría retrasarse.
Entre sus exigencias, el texto pide:
- Analizar riesgos a derechos fundamentales.
- Evitar el entrenamiento de modelos con contenido que infrinja la propiedad intelectual.
- Establecer canales para que los titulares de derechos presenten reclamaciones.
- Identificar posibles amenazas, como la pérdida de control humano o peligros químicos, biológicos o nucleares.
Aunque la adhesión es opcional, Bruselas espera que las empresas lo adopten como vía para adaptarse a la legislación. Sin embargo, Meta ya ha rechazado firmarlo.
El lanzamiento coincide con recientes polémicas, como la de la red social X, donde su IA Grok generó contenidos que elogiaban a Hitler, lo que obligó a la plataforma a eliminarlos.
El código fue elaborado por un grupo de expertos con el aporte de más de 1.000 representantes del sector tecnológico, académico y de la sociedad civil. La Comisión y los países miembros aún revisan el documento y podrían hacer ajustes antes de su implementación final.









Leave a Reply