La inteligencia artificial (IA) ha emergido como una de las tecnologías más transformadoras del siglo XXI, de rápido avance, con aplicaciones que abarcan desde la automatización industrial hasta la medicina personalizada. Estas máquinas han procesado todo el conocimiento cultural y fueron creadas por matemáticos, con diversos usos, que se han convertido en cotidianos y fueron diseñadas para mejorar la calidad de vida, como los sistemas de reconocimiento facial, de voz, Chatbots, ChatGPT, vínculos autónomos utilizados por populares plataformas como YouTube, Spotify, etc. Sin embargo, este rápido avance también plantea significativos desafíos éticos, sociales y jurídicos, en el que cobra importancia repensar qué significa ser humano.

De acuerdo a la definición del , Inteligencia Artificial (IA), es la capacidad de un sistema informático de imitar funciones cognitivas humanas, como el aprendizaje y la solución de problemas.

La Imitación de lo Humano por la IA

¿La inteligencia artificial realmente sustituye las funciones humanas? Aquí surge el punto de inflexión cuando vemos que la IA ha logrado realizar proezas antes exclusivamente humanas como el uso del lenguaje, y en el que ha ganado terreno, incluso en algunos casos superando al ser humano. Es el caso de la escritora quien a principios de este año confirmó que una inteligencia artificial le ayudó a escribir su novela, o bien, como ocurrió con el software en los Estados Unidos.

Ante la capacidad de la máquina de IA para resolver satisfactoriamente tales cuestiones, estamos obligados a reconsiderar conceptos fundamentales sobre la naturaleza y el significado de lo humano. A medida que la IA avanza y comienza a imitar capacidades que tradicionalmente consideramos exclusivamente humanas, como el pensamiento, la creatividad y la toma de decisiones, surge la necesidad de una reflexión profunda sobre qué nos define como seres humanos.

Resulta innegable que la IA moderna ha alcanzado niveles sorprendentes de sofisticación en la imitación de comportamientos humanos. Los chatbots, como los desarrollados con GPT, pueden sostener conversaciones coherentes y complejas, los algoritmos de aprendizaje automático pueden crear obras de arte y componer música, y los sistemas de IA pueden tomar decisiones en campos como la medicina y las finanzas. Este desarrollo plantea preguntas filosóficas sobre la esencia de lo humano y nuestra singularidad.

La Esencia del Ser y la Condición Humana

Martin Heidegger, un influyente filósofo alemán, exploró la relación entre el ser humano y la tecnología en su ensayo "" (1954). Heidegger argumenta que la tecnología no es meramente un conjunto de herramientas, sino una forma de revelar y comprender el mundo. Según Heidegger, la esencia de la tecnología radica en su capacidad para "desocultar" o revelar la realidad de una manera particular.

Aplicando el pensamiento de Heidegger a la IA, podemos decir que la tecnología de la inteligencia artificial no solo replica habilidades humanas, sino que también redefine cómo entendemos estas habilidades. La IA, en su capacidad para imitar la cognición y la creatividad humanas, nos obliga a reconsiderar estas cualidades no como exclusivamente humanas, sino como fenómenos que pueden ser "desocultados" y replicados por la tecnología. Este proceso de "desocultamiento" tecnológico puede llevarnos a una nueva comprensión de la esencia humana, una comprensión que reconoce la capacidad de la tecnología para participar en lo que antes considerábamos dominios exclusivamente humanos.

Hannah Arendt, otra destacada filósofa del siglo XX, en su obra "" (1958), distingue entre labor, trabajo y acción como actividades fundamentales de la vida humana. Según Arendt, la acción es lo que distingue a los seres humanos, ya que es a través de la acción que interactuamos, revelamos nuestra individualidad y participamos en la esfera pública.

En el contexto de la IA, las capacidades de la tecnología para realizar labores (tareas repetitivas y necesarias para la vida) y trabajo (producción de bienes) son claras. Sin embargo, Arendt enfatiza que la acción, caracterizada por la espontaneidad, la iniciativa y la interactividad en un espacio público compartido, sigue siendo una característica distintivamente humana.

La IA puede imitar aspectos del trabajo y, en cierta medida, de la interacción humana, pero la auténtica acción humana, con su imprevisibilidad y capacidad para iniciar nuevos procesos, podría ser lo que mantiene la distinción fundamental entre humanos y máquinas. La reflexión sobre la acción humana, en la visión de Arendt, subraya la importancia de la creatividad y la originalidad como aspectos esenciales de la humanidad que aún no pueden ser plenamente replicados por la inteligencia artificial.

Replanteando lo Humano

Al considerar las perspectivas de Heidegger y Arendt, podemos entender que la interacción entre la tecnología y la humanidad no es simplemente una cuestión de replicación de habilidades, sino una profunda transformación de nuestra comprensión del ser y de la acción. La IA, al imitar aspectos de la cognición y la creatividad humana, puede llevarnos a apreciar y valorar más profundamente aquellos aspectos de la existencia humana que son verdaderamente irreductibles a la automatización: la espontaneidad, la originalidad y la capacidad para iniciar nuevas realidades a través de la acción.

En definitiva, la imitación de lo humano por la IA nos enfrenta a la necesidad de reevaluar y quizás redefinir lo que significa ser humano. Esta reevaluación no solo es un ejercicio filosófico, sino que tiene implicaciones prácticas para cómo estructuramos nuestras sociedades y nuestras relaciones con la tecnología.

¿Quién Decide Cómo Será el Futuro?

Hay mucho en juego, carreras profesionales, la carrera del negocio global, desarrollo, crecimiento económico, político, decisión, y temor humano a la pérdida del empleo por desplazamiento de la IA. A medida que la IA se integra cada vez más en nuestras vidas, la necesidad de una regulación efectiva se vuelve crucial para garantizar que sus beneficios se maximicen y sus riesgos se minimicen.

Las características particulares de la IA, como la opacidad, la complejidad, la dependencia de datos, el comportamiento autónomo, puede tener repercusiones negativas para múltiples derechos fundamentales, por lo que el espíritu de la Ley está llamado a garantizar un elevado nivel de protección para dichos derechos fundamentales, así como hacer frente a diversas fuentes de riesgo que otorguen protección de los derechos a salvaguardar: el derecho a la dignidad humana, el respeto de la vida privada y familiar y la protección de datos de carácter personal, la no discriminación y la igualdad entre hombres y mujeres. El objetivo de este espíritu es evitar un efecto paralizante sobre los derechos a la libertad de expresión y de reunión, y garantizar el derecho a la tutela judicial efectiva y a un juez imparcial, la presunción de inocencia y los derechos de la defensa, así como el principio general de buena administración.

La IA nos desafía hacia la fragua de un nuevo "pacto social”, que otorgue mayores condiciones de bienestar a los seres humanos que necesariamente debe tener efectos positivos en los derechos de diversos grupos especiales, como los derechos de los trabajadores a unas condiciones de trabajo justas y equitativas, un elevado nivel de protección de los consumidores, los derechos de la niñez y la integración de las personas con discapacidad. El derecho a un nivel elevado de protección del medio ambiente y la mejora de su calidad, también es pertinente, en particular en lo que respecta a la salud y la seguridad de las personas.

La Relación Entre IA y la Ley

La relación entre la inteligencia artificial y la ley es compleja y multifacética. Por un lado, la ley debe proteger a los individuos y a la sociedad de posibles abusos y riesgos asociados con la IA, tales como la violación de la privacidad, la , y la pérdida de empleo. Por otro lado, la legislación no debe sofocar la innovación tecnológica ni impedir el desarrollo de aplicaciones beneficiosas de la IA. Encontrar el equilibrio adecuado entre protección y promoción es el principal desafío para los legisladores.

Riesgos y Temores Asociados con la IA

La inteligencia artificial, si bien prometedora, puede generar varios riesgos. Uno de los principales es la , donde los sistemas de IA, entrenados con datos sesgados, pueden perpetuar o incluso exacerbar las desigualdades existentes. Otro riesgo significativo es la invasión de la privacidad, ya que muchos sistemas de IA requieren grandes cantidades de datos personales para funcionar correctamente. Además, la IA plantea desafíos para el empleo, con el potencial de automatizar tareas y roles que antes eran realizados por humanos, lo que podría llevar a la pérdida masiva de trabajos en ciertos sectores.

Uno de los temores más prominentes asociados con la proliferación de la inteligencia artificial es el potencial desplazamiento de empleos humanos. La automatización y los sistemas de IA tienen la capacidad de realizar tareas que antes eran exclusivas de los trabajadores humanos, desde funciones administrativas y de atención al cliente hasta trabajos en la manufactura y la logística. Este desplazamiento puede generar inquietud y resistencia, especialmente entre aquellos cuyos medios de vida se ven directamente amenazados.

La preocupación por la pérdida de empleo debido a la IA no es infundada. Estudios realizados por diversas instituciones, como el , han estimado que millones de empleos podrían ser automatizados en las próximas décadas. Sectores como el transporte, la manufactura, y los servicios de atención al cliente son particularmente vulnerables. Los camiones autónomos, por ejemplo, podrían reemplazar a los conductores de camiones, mientras que los sistemas de IA de atención al cliente podrían sustituir a los operadores de call centers.

Sin embargo, la historia de la tecnología muestra que, aunque la automatización puede eliminar ciertos tipos de empleos, también crea nuevos roles y oportunidades. Durante la Revolución Industrial, la mecanización eliminó muchos trabajos manuales, pero también dio lugar a nuevas industrias y formas de empleo. De manera similar, la IA tiene el potencial de generar nuevas categorías de empleo que actualmente no podemos prever.

Para mitigar el impacto negativo de la IA en el empleo, se han propuesto varias soluciones y estrategias. Estas incluyen la educación y la formación, la creación de nuevas políticas laborales y económicas, y la promoción de un cambio hacia una economía más inclusiva y equitativa.

Algunos proponen la idea de una (RBU) como una forma de asegurar que todos los individuos tengan un nivel básico de ingresos, independientemente de su situación laboral. La RBU podría proporcionar una red de seguridad en tiempos de transición y permitir que las personas persigan oportunidades educativas y laborales sin la presión inmediata de la supervivencia económica.

Por otra parte, las habilidades humanas como la inteligencia emocional, la creatividad y la capacidad de resolver problemas complejos siguen siendo áreas en las que la IA tiene limitaciones. Fomentar estas habilidades puede ayudar a los trabajadores a encontrar roles en los que la interacción humana y el pensamiento crítico son esenciales. Profesiones en el ámbito de la salud mental, el diseño, las artes, y la gestión de relaciones son menos susceptibles a la automatización y seguirán siendo relevantes. La educación y la formación deben adaptarse para enfatizar estas habilidades, promoviendo una fuerza laboral resiliente y adaptable.

La regulación de la IA es necesaria para abordar estos riesgos y garantizar que el desarrollo y uso de la tecnología se realicen de manera ética y responsable. Las regulaciones pueden establecer estándares para la transparencia y la rendición de cuentas, exigir evaluaciones de impacto ético y promover prácticas de diseño que incluyan consideraciones de justicia y equidad.

Unión Europea

La ha sido pionera en la creación de un marco regulador para la inteligencia artificial. En abril de 2021, la presentó la propuesta de , que busca establecer reglas claras sobre el uso de la IA en diferentes sectores, y fue el pasado 13 de marzo de 2024. La Ley clasifica los sistemas de IA en función de su nivel de riesgo: desde riesgo inaceptable (prohibidos), riesgo alto (sujeto a estrictas obligaciones), hasta riesgo limitado y mínimo.

- Riesgo Inaceptable: Incluye sistemas que manipulan el comportamiento humano, explotando vulnerabilidades específicas o sistemas de puntuación social.

- Riesgo Alto: Incluye IA utilizada en infraestructuras críticas, educación, empleo, servicios públicos y aplicación de la ley. Estos sistemas deben cumplir con estrictos requisitos de transparencia, supervisión humana y solidez.

- Riesgo Limitado y Mínimo: Incluye aplicaciones como Chatbots, que deben informar a los usuarios que están interactuando con una IA.

La de la Unión Europea, también establece un sistema de evaluación de conformidad y crea una base de datos pública de sistemas de alto riesgo, lo que fomenta la transparencia y la rendición de cuentas.

Estados Unidos

En Estados Unidos, la regulación de la IA ha sido más fragmentada y depende en gran medida de iniciativas sectoriales y estatales. A nivel federal, en 2020, el Congreso aprobó la Ley de Supervisión de IA (), que establece directrices para la adopción ética y responsable de la IA en agencias federales.

Además, la Comisión Federal de Comercio () ha emitido guías sobre la transparencia y la equidad en el uso de la IA por parte de las empresas. La FTC enfatiza la importancia de evitar prácticas comerciales engañosas y de no perpetuar la discriminación.

A nivel estatal, California ha sido líder en la regulación de tecnologías emergentes, con leyes como el Acta de Derechos de Privacidad de California () que, aunque no se centra exclusivamente en la IA, tiene implicaciones significativas para el uso de datos personales por sistemas de IA.

China

China ha adoptado un enfoque diferente hacia la regulación de la IA, combinando el fomento agresivo de la tecnología con controles estrictos. El gobierno chino ha lanzado varios planes estratégicos para posicionarse como líder mundial en IA, incluyendo el . Al mismo tiempo, las regulaciones chinas se centran en el control y la supervisión estatal, especialmente en áreas como la censura y la vigilancia.

Un ejemplo es la normativa sobre reconocimiento facial, que requiere que los proveedores de servicios obtengan el consentimiento explícito de los usuarios antes de recopilar sus datos biométricos. Además, la ley china exige que las empresas de IA trabajen en estrecha colaboración con las autoridades para garantizar la seguridad nacional y la estabilidad social.

Otras Iniciativas Globales

Otros países también han comenzado a desarrollar marcos regulatorios para la IA. Japón, por ejemplo, ha adoptado un enfoque basado en , promoviendo el "Uso Socialmente Aceptable de la IA" y desarrollando directrices que enfatizan el respeto a la privacidad y la dignidad humana. En Canadá, el gobierno ha implementado la Directiva sobre Toma de Decisiones Automatizadas, que requiere que las agencias gubernamentales evalúen el impacto de los sistemas de IA en los derechos humanos y establezcan mecanismos de rendición de cuentas.

La Organización Internacional del Trabajo (OIT)

(OIT) ha adoptado una para abordar el impacto de la inteligencia artificial (IA) en el mundo laboral, enfocándose en varios aspectos clave. Esta estrategia incluye la adaptación de las políticas laborales, la promoción de la capacitación y la reeducación de la fuerza laboral, y la implementación de principios éticos para el uso de la IA en el trabajo.

Uno de los componentes principales de la estrategia de la OIT es la promoción de un diálogo social inclusivo que involucra a gobiernos, empleadores y trabajadores. Este diálogo busca asegurar que la implementación de la IA en el ámbito laboral beneficie a todas las partes interesadas y no exacerbe las desigualdades existentes. Además, este organismo de las , enfatiza la necesidad de desarrollar marcos regulatorios que protejan los derechos laborales en un entorno cada vez más automatizado.

El Reto para México en el Contexto de la Regulación de la IA

La IA cada vez, se parece más a lo humano, para resolver los cuestionamientos más comunes; está transformando el mundo a un ritmo sin precedentes, y México no es una excepción. La adopción de tecnologías de IA tiene el potencial de impulsar el desarrollo económico, mejorar los servicios públicos y transformar diversos sectores industriales. Sin embargo, también presenta desafíos significativos que requieren una regulación cuidadosa y estratégica.

1. Falta de Marco Regulatorio Claro:

México carece de un marco regulatorio específico y exhaustivo para la inteligencia artificial. Esto crea incertidumbre tanto para los desarrolladores de IA como para los usuarios, y puede inhibir la innovación y la inversión en el sector. Un marco regulatorio claro es esencial para establecer normas y directrices que aseguren el desarrollo y uso ético y seguro de la IA.

2. Protección de Datos Personales:

La recolección y el uso de grandes cantidades de datos personales son fundamentales para muchas aplicaciones de IA. México tiene la (LFPDPPP), pero la rápida evolución de la tecnología requiere una actualización constante de las regulaciones para proteger eficazmente la privacidad de los individuos y evitar el uso indebido de datos.

3. Brecha Digital y Desigualdad Tecnológica:

La adopción y el desarrollo de la IA en México se ven obstaculizados por la brecha digital. Muchas regiones del país carecen de acceso a las tecnologías digitales básicas, lo que limita las oportunidades de desarrollo y la equidad en el acceso a los beneficios de la IA. Abordar esta brecha es crucial para asegurar que la IA beneficie a toda la población y no solo a una élite tecnológica.

4. Desempleo y Transformación del Mercado Laboral:

Al igual que en otros países, la IA tiene el potencial de automatizar muchos empleos, lo que podría llevar a una pérdida significativa de puestos de trabajo en ciertos sectores. México necesita políticas que aborden esta transformación del mercado laboral, proporcionando capacitación y educación para que los trabajadores puedan adaptarse a las nuevas demandas tecnológicas.

5. Ética y Transparencia en el Uso de la IA:

Es crucial que las aplicaciones de IA sean desarrolladas y utilizadas de manera ética y transparente. Esto incluye asegurar que los algoritmos no perpetúen sesgos o discriminaciones y que las decisiones automatizadas sean explicables y responsables. México necesita establecer normativas que promuevan la equidad y la justicia en el uso de la IA.

¿Estamos a la Altura de los Desafíos?

El panorama es bastante desafiante, a la vez que fascinante. Nuestro país tiene una invitación en los niveles más altos de la estrategia geopolítica. La IA es una avalancha, semejante a la “Explosión del Cámbrico”, caracterizada por la aparición repentina en el registro fósil de la mayoría de los filos animales conocidos. Es un punto de inflexión, a partir de su aportación al mundo del trabajo como una herramienta, que nos puede ayudar a hacer la vida más fácil, al sustituir las tareas más rutinarias, pero a la vez, dicha sustitución de tareas, realizadas por personas trabajadoras, puede orillar a prescindir de sus servicios para el cumplimiento de ese objetivo resuelto por la IA en el centro de trabajo.

Es claro que aunque la carrera está en fase de pruebas en el mundo, y aún no es muy confiable, la IA ya es una realidad que ofrece enormes oportunidades, y a su vez, también plantea riesgos significativos que deben ser gestionados mediante una regulación adecuada para la protección de los derechos fundamentales y su garantía a las personas. De tal forma que la relación entre la IA y la ley es esencial para asegurar que la tecnología se desarrolle de manera ética y responsable. Las iniciativas de regulación de la IA en la Unión Europea, Estados Unidos, China y otros países reflejan diferentes enfoques y prioridades, desde la protección de los derechos individuales hasta el control estatal y la promoción de la innovación.

Encontrar el equilibrio adecuado entre fomentar la innovación tecnológica y proteger a la sociedad de los posibles riesgos de la IA es el desafío central. A medida que la tecnología continúa evolucionando, será crucial que las leyes y regulaciones se adapten de manera flexible y dinámica para enfrentar los nuevos retos y aprovechar las oportunidades que la IA presenta.

Como todas las naciones, México requiere un enfoque integral y coordinado que involucre a todos los sectores de la sociedad. La colaboración entre el sector público, el privado y las organizaciones internacionales como la es esencial para enfrentar los desafíos y aprovechar las oportunidades que la IA ofrece. Solo a través de un esfuerzo concertado y coordinado se puede asegurar que la transición hacia un mundo más automatizado sea inclusiva y pueda florecer de manera responsable y beneficiosa para todos.

Para conseguirlo, nuestro país debe trabajar en la creación de dicho marco regulatorio integral de forma prioritaria. Este marco debe incluir directrices sobre el desarrollo, implementación y supervisión de la IA, con énfasis en la seguridad, la privacidad y la ética, que fortalezca la protección de datos personales, reduzca la brecha digital –lo que incluye invertir en mejorar el acceso a internet de alta velocidad en todo el país, especialmente en áreas rurales y marginadas–, y fomentar la educación digital desde una edad temprana, así como implementar programas de capacitación y recapacitación laboral para preparar a la fuerza laboral a su adaptación a la IA.

La IA cada vez, se parece más a lo humano para resolver los cuestionamientos más habituales y ese es su objetivo. Avanza, y produce cambios significativos de los que debemos estar conscientes, por ello, debemos prepararnos y repensarnos en torno a la centralidad y dignidad del ser humano. Esta herramienta tecnológica podrá imitar aspectos del trabajo, e incluso, de la interacción del hombre, pero no así la auténtica acción humana, su imprevisibilidad y creatividad, distinción fundamental entre humanos y máquinas. Las características de nuestra especie, como la ética, el elemento creativo, o la empatía, resultan ser el valor añadido del ser humano que trasciende las capacidades programables en una máquina y por tanto resultan insustituibles, aún en la era de la inteligencia artificial.


Magistrada Federal y Presidenta de la Comisión de Igualdad y Derechos Humanos del Tribunal Federal de Conciliación y Arbitraje

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
Google News

TEMAS RELACIONADOS