La Ley de IA es una propuesta legislativa emblemática de los miembros del Parlamento Europeo MEP, que marcan las reglas de la Inteligencia Artificial.
Para regular la Inteligencia Artificial en función de su potencial para causar daño.
Actualmente, no existe una normativa global que regule específicamente la Inteligencia Artificial (IA), el copyright y los derechos de autor de los datos con los que ha sido entrenada.
En términos de derecho de autor, los datos con los que se entrena a un modelo de IA pueden estar protegidos por derechos de autor.
Por lo tanto, su uso sin permiso podría constituir una infracción de derechos de autor.
En algunos países, el derecho de autor podría aplicarse a todo el modelo de IA, no solo a los datos de entrenamiento.
La Asamblea Parlamentaria del Consejo de Europa ha aprobado una resolución sobre los riesgos de la IA y la necesidad de un marco legal, ético y operativo adecuado.
El campo de la IA sigue siendo muy dinámico y se espera que las regulaciones y directrices evolucionen a medida que la tecnología se desarrolle y se expanda su uso.
Es difícil establecer un marco general para la regulación de la Inteligencia Artificial basado exclusivamente en los datos de los que se nutre, ya que existen muchos tipos de datos y modelos de IA que se utilizan en diferentes contextos.
Hay algunas consideraciones generales que podrían ser útiles en la creación de un marco regulatorio:
- Transparencia: Los modelos de IA deben ser transparentes en cuanto a cómo se entrenaron y qué datos se utilizaron en el proceso de entrenamiento. Esto permite una mayor comprensión de cómo funciona la IA y ayuda a identificar posibles sesgos o discriminación en el modelo.
- Consentimiento: Se deben establecer mecanismos adecuados para obtener el consentimiento de las personas cuyos datos se utilizan para entrenar modelos de IA. Es importante que las personas comprendan cómo se utilizarán sus datos y para qué fines.
- Privacidad: Se deben implementar medidas adecuadas para proteger la privacidad de las personas cuyos datos se utilizan en el entrenamiento de modelos de IA. Esto incluye el anonimato y la eliminación de datos sensibles o identificables.
- Responsabilidad: Los desarrolladores de modelos de IA deben ser responsables de garantizar que sus modelos no causen daño o discriminación. Esto incluye el monitoreo continuo del modelo y la implementación de medidas para corregir cualquier sesgo o error identificado.
Cualquier marco regulatorio para la IA debe ser flexible y adaptarse a las diferentes situaciones y contextos en los que se utiliza la tecnología.
Debe haber un enfoque en la colaboración entre los desarrolladores de la IA, los reguladores y otros interesados para garantizar que se establezcan las mejores prácticas y que se aborden los posibles riesgos de la IA.
Según la normativa desarrollada en la Cámara de la Unión Europea, hay dos requisitos principales que influyen en el cambio fundamental de la Inteligencia Artificial, son:
- Respetar las obras con derechos de autor.
- Obligatoriedad de revelar la procedencia de los datos.
La procedencia de los datos con los que se produce el entrenamiento de estos modelos de lenguaje.
Tendrá que documentar con un «resumen suficientemente detallado» qué contenido protegido por la propiedad intelectual se ha empleado para el entrenamiento de modelos de lenguaje por inteligencia artificial.
En el caso de que la Inteligencia Artificial cree contenido a partir de contenido protegido, el creador o creadora del contenido podría reclamar la parte que le corresponde de los beneficios obtenidos.
Con esta normativa se pretende aumentar la responsabilidad y la transparencia de los modelos de lenguaje.
También incluirá, bienestar social, diversidad, no discriminación, equidad, mediante principios de supervisión humana, seguridad técnica y transparencia.
Susceptibles de desarrollarse conforme a la legislación de la UE y los derechos fundamentales de la libertad de expresión.
Procesamiento de datos confidenciales como la orientación sexual, religión, bajo tratamientos encriptados que eviten sesgos, realizándose en entornos controlados, siendo necesario justificar su procesamiento.
Prohibiendo prácticas que supongan riesgos como la manipulación intencionada, la vigilancia predictiva o el reconocimiento de emociones.
Tendrán que cumplir requisitos sobre riesgos, transparencia y gestión de datos, infraestructuras críticas como energía, agua y su impacto ambiental.
Aunque el texto que regula las reglas de la Inteligencia Artificial aún podría estar sujeto a ajustes de nivel técnico.
La regulación de IA prohíbe;
- La manipulación “intencionada”.
- El uso de software impulsado por IA de reconocimiento de emociones, en las áreas de aplicación de la ley, gestión de fronteras, lugar de trabajo y educación.
- La prohibición sobre la vigilancia predictiva de los delitos penales a los administrativos.
Soluciones de IA incluidas en las áreas críticas y los casos de uso como de alto riesgo, los proveedores tendrían que cumplir con un régimen que incluye requisitos sobre gestión de riesgos, transparencia y gobierno de datos.
Que supusiera un riesgo significativo de daño a la salud, la seguridad o los derechos fundamentales.
El riesgo significativo como resultado de la combinación de su severidad, intensidad, probabilidad de ocurrencia y duración de sus efectos, capacidad de afectar a un individuo, a una pluralidad de personas o a un grupo particular de personas.
La IA utilizada para gestionar infraestructuras críticas como redes de energía o sistemas de gestión del agua también se clasificaría como de alto riesgo si implican un riesgo ambiental grave.
Los sistemas de recomendación de plataformas online grandes, tal como se definen en la Ley de Servicios Digitales (DSA), se considerarán de alto riesgo.
El proceso mediante el cual los proveedores de modelos de IA de alto riesgo pueden procesar datos confidenciales como la orientación sexual o las creencias religiosas para detectar sesgos negativos.
Para que se produzca el procesamiento de un tipo de datos especial, el sesgo no debe ser detectable mediante el procesamiento de datos sintéticos, anonimizados, seudonimizados o encriptados.
La evaluación debe realizarse en un entorno controlado, los datos confidenciales no se pueden transmitir a otras partes y deben eliminarse después de la evaluación del sesgo.
Los proveedores también deben documentar por qué se llevó a cabo el procesamiento de datos.
Estos principios incluyen agencia humana y supervisión, solidez técnica y seguridad, privacidad y gobierno de datos, transparencia, bienestar social y ambiental, diversidad, no discriminación y equidad.
Los sistemas de IA de alto riesgo deberán mantener registros de su huella ambiental, y los modelos básicos deberán cumplir con los estándares ambientales europeos.
Referencias;
chat.openai.com
www.euractiv.com/artificial-intelligence/meps-seal-the-deal-on-artificial-intelligence-act
www.wsj.com/europe-to-chatgpt-disclose-your-sources
Imagen; fondo-tecnologia-futurista-ai > de rawpixel.com > en Freepik > freepik.es