¿Quién responde cuando una decisión tomada por inteligencia artificial afecta derechos? ¿Es suficiente regular técnicamente una tecnología para garantizar que no afecte a las personas? Estas preguntas adquieren especial relevancia en un contexto en el que la inteligencia artificial se está convirtiendo en parte de nuestra vida cotidiana.
En las últimas semanas, el debate sobre la regulación de la IA ha saltado en el contexto de la revisión del Tratado entre México, Estados Unidos y Canadá (T-MEC). Sin embargo, más allá de los estándares técnicos o comerciales que puedan discutirse, la conversación también debe centrarse en las implicaciones éticas, de responsabilidad y de protección de datos personales asociadas a su desarrollo y uso.
En este escenario, vale la pena detenerse en tres ideas: primero, que la inteligencia artificial no es neutral y puede reproducir sesgos o desigualdades preexistentes; segundo, que la responsabilidad sobre las decisiones automatizadas no puede diluirse bajo la idea de que la tecnología decide por sí sola; y tercero, que la protección de datos personales será determinante para definir el tipo de tecnología que queremos desarrollar en la región.
La inteligencia artificial no funciona en el vacío. Los sistemas aprenden de datos, patrones y decisiones humanas previas, lo que significa que también pueden reproducir discriminación, exclusión o errores existentes en la sociedad. Por ejemplo, un algoritmo utilizado para reclutamiento laboral puede impactar directamente derechos fundamentales si opera con datos sesgados o sin supervisión adecuada. Por ello, hablar de IA también implica hablar de evaluación de riesgos, supervisión humana y transparencia en procesos automatizados.
A partir de esto surge la segunda cuestión: la responsabilidad. Con frecuencia se presenta a la IA como una herramienta cuyas decisiones son tomadas meramente por tecnología, pero detrás de cada sistema hay empresas, instituciones y, por tanto, personas. La automatización no puede convertirse en un mecanismo para diluir responsabilidades. Cuando una decisión afecta derechos, debe existir claridad sobre quién responde, cómo se corrigen errores y qué mecanismos tienen las personas para cuestionar o impugnar esas decisiones.
A ello se suma otro punto fundamental: la protección de datos personales. Los sistemas de inteligencia artificial requieren enormes volúmenes de información para funcionar, lo que vuelve indispensable garantizar principios como finalidad, proporcionalidad, minimización y consentimiento. La discusión ya no se limita a qué puede hacer la tecnología, sino también a qué debe permitirse hacer con los datos de las personas y bajo qué límites. La calidad de la protección de datos personales definirá, en gran medida, el tipo de ecosistema digital que construiremos en la región.
Desde esta perspectiva, la discusión sobre la inteligencia artificial en el T-MEC también implica preguntarnos qué modelo de desarrollo tecnológico queremos impulsar en la región y bajo qué principios debe construirse. Porque la innovación no puede desvincularse de los derechos ni de las responsabilidades que surgen de su impacto en las personas.
Regular la inteligencia artificial no significa frenar el desarrollo tecnológico, significa establecer condiciones para que este avance ocurra con responsabilidad, transparencia y respeto a la dignidad humana. Y en esa discusión no solo se definirá el futuro de la competitividad tecnológica en América del Norte, sino también la capacidad de proteger derechos frente a tecnologías cada vez más influyentes en nuestra vida cotidiana. Con ello, hagamos lo que nos corresponde.
Especialista en protección de datos, ciberseguridad y gobernanza de IA
X: @lauraenriquezr
Instagram: @laura.enriquezr
Tiktok: @lauraenriquezr

