La inteligencia artificial (IA) ya no es cosa del futuro, hoy convive con nosotros en asistentes virtuales, sistemas de recomendación, vehículos autónomos, diagnósticos médicos, vigilancia y decisiones financieras. Esta presencia creciente ha generado avances increíbles, pero también desafíos éticos, sociales y legales. Por eso, en distintos países y organismos internacionales ha surgido una clara necesidad: regular el uso de la IA para garantizar que beneficie a la sociedad sin poner en riesgo derechos fundamentales.
¿Por qué regular la IA?
La IA tiene la capacidad de tomar decisiones que afectan directamente a las personas. Por ejemplo, un algoritmo puede decidir si apruebas un crédito, si pasas a una segunda ronda de empleo o incluso detectar comportamientos sospechosos en una cámara de seguridad. Si estos sistemas no son transparentes, justos o controlados, pueden replicar prejuicios, cometer errores o actuar de forma discriminatoria sin que nadie sepa cómo o por qué. Además, su uso sin límites podría poner en peligro la privacidad, la seguridad o la libertad de expresión.
En México, la iniciativa de Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la Inteligencia Artificial busca establecer un marco legal para el uso responsable de la IA. Sus principales objetivos son:
- Fomentar un desarrollo ético y respetuoso de los derechos humanos
- Impulsar la soberanía tecnológica.
- Garantizar la inclusión.
- Regular los riesgos asociados a la IA.
- Crear una Comisión Nacional de Inteligencia Artificial para coordinar políticas y evaluar riesgos.
¿Qué propone la regulación?
La iniciativa para regular la IA busca establecer marcos legales claros que aseguren el uso responsable de esta tecnología. Algunos puntos clave que suelen incluir estas propuestas son:
- Crear la Ley Federal Para el Desarrollo Ético, Soberano e Inclusivo de la Inteligencia Artificial.
- Transparencia: Las personas tienen derecho a saber si están interactuando con una IA y cómo funciona en lo esencial.
- Supervisión humana: Las decisiones importantes no deben quedar completamente en manos de máquinas. Siempre debe haber una posibilidad de revisión humana.
- Prohibiciones específicas: Se busca restringir aplicaciones de alto riesgo, como el reconocimiento facial masivo en espacios públicos o sistemas de puntuación social, como los implementados en algunos países.
- Protección de datos: Toda IA debe respetar la privacidad de las personas y proteger sus datos sensibles.
- Evaluación de riesgos: Las empresas desarrolladoras de IA deben evaluar los riesgos antes de lanzar sus productos al mercado.
Ejemplos de iniciativas actuales
La Unión Europea es pionera en esta materia con su Ley de Inteligencia Artificial (AI Act), aprobada en 2024, que clasifica los sistemas según el nivel de riesgo que implican. En América Latina, algunos países como Brasil y México han comenzado a discutir propuestas que combinen innovación tecnológica con el respeto a los derechos humanos.
Regular la inteligencia artificial no significa frenar la innovación, sino garantizar un desarrollo tecnológico, ético y responsable. Esto protege tus datos, evita la discriminación automatizada y permite cuestionar el uso de estas tecnologías.
Si bien esta iniciativa no representa aún un avance sustancial, su presentación marca el inicio de una discusión necesaria que, con el tiempo, podría conducir a una regulación integral en materia de inteligencia artificial.
En Stratego Firma reafirmamos nuestro compromiso de mantenerte al tanto de los cambios relevantes que pueden impactar en tu empresa. Síguenos y mantente al día.