Ficha técnica
- Título: Ética y Regulación de la Inteligencia Artificial: Un Enfoque Crítico en Privacidad y Responsabilidad
- Integrantes: Godoy Guido, Fedeli Iara, Lopez Marcos Andrés
- Materia: Ciencia, Tecnología y sociedad
- Profesor/a: Miranda, Romina
- Fecha: Octubre 2025
Introducción
La inteligencia artificial ha transformado profundamente distintos sectores, aportando grandes beneficios, pero también planteando dilemas éticos sobre su uso responsable y su impacto en la sociedad.
Este trabajo aborda dos ejes fundamentales: la privacidad de los datos y la responsabilidad y regulación de la IA, temas que están estrechamente vinculados.
Las leyes y marcos regulatorios son esenciales para garantizar que el desarrollo de la inteligencia artificial respete la privacidad, la seguridad y los derechos fundamentales de las personas.
I. Privacidad de los Datos en la IA
La privacidad de los datos en inteligencia artificial se refiere al derecho de las personas a controlar cómo se recopila, utiliza y comparte su información dentro de los sistemas automatizados.
Los modelos de IA procesan grandes volúmenes de datos personales, lo que puede generar riesgos como el uso indebido, las filtraciones o la falta de consentimiento informado. Por ello, la protección de la privacidad se ha convertido en un pilar ético y legal fundamental.
Para mitigar estos riesgos, se aplican principios de gobernanza del dato —como la minimización y el consentimiento explícito— y se desarrollan técnicas de privacidad por diseño (como el aprendizaje federado, el cifrado homomórfico y la privacidad diferencial), que buscan garantizar un tratamiento seguro y responsable de la información.
II. Responsabilidad y Regulación: Marcos Globales y Alto Riesgo
Concepto y Explicación: La responsabilidad en la inteligencia artificial se refiere a la atribución de culpabilidad por los daños causados por sistemas automatizados. Este aspecto se complica por la llamada “caja negra algorítmica”, que dificulta comprender cómo los algoritmos toman decisiones. Para responder a ello, las regulaciones exigen transparencia y trazabilidad, permitiendo auditar y supervisar el funcionamiento de los sistemas de IA.
2.1. El Eje Regulatorio Europeo: La Ley de IA (AI Act)
La Ley de Inteligencia Artificial de la Unión Europea adopta un enfoque basado en el riesgo, regulando los sistemas de IA según su potencial impacto sobre la salud, la seguridad y los derechos fundamentales. Se establecen tres niveles de riesgo, siendo los sistemas de alto riesgo aquellos con mayor potencial de daño. Ejemplos incluyen herramientas de gestión laboral, puntuación crediticia, identificación biométrica y administración de justicia.
La ley impone obligaciones clave para los sistemas de alto riesgo, como:
- Calidad de los datos: uso de conjuntos de entrenamiento confiables y sin sesgos.
- Registro de actividad: documentación detallada para garantizar trazabilidad y auditoría.
- Supervisión humana: intervención y control por parte de personas para evitar decisiones injustas o erróneas.
2.2. Caso de Alto Riesgo: El Algoritmo de Contratación de Amazon
En 2015, Amazon desarrolló una herramienta de selección de personal que, al ser entrenada con datos históricos, reprodujo un sesgo de género, favoreciendo a los hombres y penalizando a las candidatas. Este caso demuestra cómo la falta de calidad en los datos de entrenamiento puede derivar en discriminación algorítmica, vulnerando principios de igualdad y transparencia.
Conclusión del caso: Aunque Amazon abandonó el proyecto, el incidente impulsó a la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) de EE. UU. a estudiar la responsabilidad legal de las empresas que utilizan IA. Este caso evidenció la necesidad de marcos regulatorios que garanticen supervisión humana, calidad de datos y rendición de cuentas.
Relación entre los temas
Conexión entre Privacidad y Responsabilidad: La privacidad es un subconjunto crítico de la responsabilidad regulatoria. Una de las diez obligaciones legales impuestas a las empresas es la de no usar datos personales o confidenciales sin consentimiento, lo cual es supervisado por organismos como la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). Además, la regulación de la IA generativa exige específicamente transparencia sobre los datos protegidos por derechos de autor que se usan para el entrenamiento del modelo.
Riesgos Éticos: Si las empresas eluden su Responsabilidad (incumpliendo la regulación), se manifiestan graves riesgos éticos relacionados con la Privacidad:
- Manipulación y Puntuación Social: Los sistemas de riesgo inaceptable, como el social scoring o la manipulación cognitiva, se basan en la recopilación y procesamiento invasivo de datos personales y comportamientos para clasificar o influir en las personas, violando así la privacidad y los derechos fundamentales.
- Falta de Transparencia: Si no se cumplen los requisitos de transparencia, los ciudadanos pueden no ser conscientes de que su contenido ha sido generado o modificado por IA (como las ultrafalsificaciones) o de cómo se utilizaron sus datos para entrenar el modelo, socavando la confianza.
III. La Sinergia Regulatoria: Conexión, Ética e Impacto en Argentina
Concepto General: La privacidad y la responsabilidad son ejes inseparables en la gobernanza de la inteligencia artificial. Un sistema que no protege los datos personales ni garantiza la calidad de la información se convierte automáticamente en un sistema de alto riesgo, propenso a vulnerar derechos fundamentales.
3.1. Conexión Fundamental y Riesgos Éticos
La interdependencia entre privacidad y responsabilidad genera nuevos desafíos éticos. Entre ellos se destacan:
- Sesgo de confianza: tendencia humana a confiar ciegamente en las decisiones de la IA, incluso cuando son erróneas.
- Falta de control en la IA autónoma: los sistemas agentivos pueden justificar acciones riesgosas bajo la lógica del “fin justifica los medios”.
- Adopción acelerada: el uso prematuro de tecnologías sin salvaguardas adecuadas puede derivar en violaciones de privacidad, incumplimientos normativos o infracciones de propiedad intelectual.
3.2. Caso Global: Cambridge Analytica y el Microtargeting Político
El escándalo de Facebook–Cambridge Analytica (2018) reveló la manipulación masiva de datos personales con fines políticos. La empresa recopiló información de más de 87 millones de perfiles sin consentimiento, empleándola para influir en procesos electorales mediante técnicas de microsegmentación.
Lección principal: El caso demostró que las sanciones posteriores al daño son insuficientes. Es necesario establecer marcos preventivos que regulen la recolección y el uso de datos personales antes de que ocurran abusos.
3.3. Precedentes en Argentina: Justicia y Regulación Subnacional
En Argentina, la Ley 25.326 de Protección de Datos Personales garantiza derechos como el acceso, bloqueo y supresión de datos. Sin embargo, su antigüedad la hace insuficiente frente a los desafíos de la IA moderna.
Dos precedentes marcan el avance local:
- Suspensión del Reconocimiento Facial en CABA: La justicia porteña detuvo el uso del Sistema de Reconocimiento Facial de Prófugos por violar el principio de legalidad y omitir un Estudio de Impacto en Protección de Datos (EIP).
- Proyecto de Ley 589/2024 – Provincia del Chaco: Propone un marco inspirado en la AI Act europea, clasificando sistemas según su nivel de riesgo y exigiendo un registro de IA y un seguro de responsabilidad civil para garantizar la reparación de daños.
3.4. Impacto en la Sociedad y el Trabajo Profesional
La regulación de la IA redefine la vida social y laboral. Surgen nuevos derechos, como el derecho de los trabajadores a conocer cómo los algoritmos evalúan su desempeño. Además, crecen las demandas de profesionales capacitados en ética, auditoría y gobernanza tecnológica.
Reflexión: La formación continua y la supervisión humana son claves para mantener la confianza y la justicia en los entornos donde opera la inteligencia artificial.
Conclusión
La convergencia entre privacidad, responsabilidad y regulación ética es esencial para construir una inteligencia artificial confiable y respetuosa de los derechos humanos. Los fallos en la gestión de datos o en la supervisión algorítmica pueden derivar en violaciones graves de derechos fundamentales.
Casos como el de Amazon, Cambridge Analytica y el reconocimiento facial en Buenos Aires demuestran que la falta de gobernanza adecuada conduce a consecuencias sociales y legales profundas. Argentina avanza hacia un modelo más responsable con proyectos como la ley del Chaco, que representan un paso hacia la regulación preventiva y transparente.
En síntesis, una IA ética requiere cooperación entre el sector público, privado y académico, promoviendo innovación sin sacrificar la privacidad, la equidad ni la dignidad humana.
Referencias de las obras citadas
- IA_ Privacidad, Responsabilidad y Regulación.docx [cite: 139]
- El derecho de protección de datos personales en los sistemas de inteligencia artificial, fecha de acceso: octubre 2, 2025, https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1870-21472021000 200179 [cite: 139]
- Explore los problemas de privacidad en la era de la IA - IBM, fecha de acceso: octubre 2, 2025, https://www.ibm.com/es-es/think/insights/ai-privacy [cite: 139]
- Principales preocupaciones sobre IA y privacidad de datos - F5, fecha de acceso: octubre 2, 2025, https://www.f5.com/es_es/company/blog/top-ai-and-data-privacy-concerns [cite: 139]
- Explorar los problemas de privacidad en la era de la IA - IBM, fecha de acceso: octubre 2, 2025, https://www.ibm.com/mx-es/think/insights/ai-privacy [cite: 139]
- Los principales ataques a modelos de inteligencia artificial, fecha de acceso: octubre 2, 2025, https://newsinamerica.com/pdcc/boletin/2025/los-principales-ataques-a-modelos-d e-inteligencia-artificial/ [cite: 140]
- tayebiarasteh/federated_he: Federated learning with homomorphic encryption enables multiple parties to securely co-train artificial intelligence models in pathology and radiology, reaching state-of-the-art performance with privacy guarantees. - GitHub, fecha de acceso: octubre 2, 2025, https://github.com/tayebiarasteh/federated_he [cite: 140, 141]
- Federated Learning Meets Homomorphic Encryption - IBM Research, fecha de acceso: octubre 2, 2025, https://research.ibm.com/blog/federated-learning-homomorphic-encryption [cite: 141]
- Federated Learning with Homomorphic Encryption | NVIDIA Technical Blog, fecha de acceso: octubre 2, 2025, https://developer.nvidia.com/blog/federated-learning-with-homomorphic-encryption/ [cite: 142]
- Diez recomendaciones para la regulación global de la IA - Centre for Information Policy Leadership, fecha de acceso: octubre 2, 2025, https://www.informationpolicycentre.com/uploads/5/7/1/0/57104281/cipl_ten_reco mmendations_global_ai_regulation_oct2023_spanish.pdf [cite: 142]
- Sesgo de género (en IA) = Gender bias (in AI) - Revistas UC3M, fecha de acceso: octubre 2, 2025, https://e-revistas.uc3m.es/index.php/EUNOM/article/download/8515/6565/ [cite: 142]
- Ley de IA | Configurar el futuro digital de Europa, fecha de acceso: octubre 2, 2025, https://digital-strategy.ec.europa.eu/es/policies/regulatory-framework-ai [cite: 143]
- Countering Bias in Algorithmic Hiring Tools - The Regulatory Review, fecha de acceso: octubre 2, 2025, https://www.theregreview.org/2021/09/11/saturday-seminar-countering-bias-algorit hmic-hiring-tools/ [cite: 143]
- EEOC Update: Artificial Intelligence, Actual Discrimination | Insights | Venable LLP, fecha de acceso: octubre 2, 2025, https://www.venable.com/insights/publications/2021/11/eeoc-update-artificial-intelli gence-actual-discrim [cite: 144, 146]
- Why Amazon's Automated Hiring Tool Discriminated Against Women | ACLU, fecha de acceso: octubre 2, 2025, https://www.aclu.org/news/womens-rights/why-amazons-automated-hiring-tool-dis criminated-against [cite: 147]
- Ética de la IA y Privacidad de Datos: Preocupaciones y Riesgos ..., fecha de acceso: octubre 2, 2025, https://objectfirst.com/es/blog/data-privacy-risks-and-ai-ethics/ [cite: 147]
- Escándalo de datos de Facebook-Cambridge Analytica - Wikipedia, la enciclopedia libre, fecha de acceso: octubre 2, 2025, https://es.wikipedia.org/wiki/Esc%C3%A1ndalo_de_datos_de_Facebook-Cambrid ge_Analytica [cite: 147]
- Facebook–Cambridge Analytica data scandal - Wikipedia, fecha de acceso: octubre 2, 2025, https://en.wikipedia.org/wiki/Facebook%E2%80%93Cambridge_Analytica_data_s candal [cite: 148]
- PROTECCION DE LOS DATOS - Jus.gob.ar - Infoleg, fecha de acceso: octubre 2, 2025, https://servicios.infoleg.gob.ar/infolegInternet/anexos/60000-64999/64790/texact.h tm [cite: 148]
- Reconocimiento facial - EPU 2023 - CELS, fecha de acceso: octubre 2, 2025, https://www.cels.org.ar/especiales/examenonu/wp-content/uploads/sites/13/2022/ 11/Reconocimiento-facial-EPU-2023.pdf [cite: 148]
- CABA: suspensión del sistema de reconocimiento facial para ..., fecha de acceso: octubre 2, 2025, https://www.pensamientopenal.com.ar/fallos/90023-caba-suspension-del-sistema-reconocimiento-facial-busqueda-profugos [cite: 148]
- Se declara inconstitucional el sistema de reconocimiento facial de prófugos de la Ciudad de Buenos Aires | IAPP, fecha de acceso: octubre 2, 2025, https://iapp.org/news/a/se-declara-inconstitucional-el-sistema-de-reconocimiento-f acial-de-profugos-de-la-ciudad-de-buenos-aires [cite: 149]
- constramindiv, fecha de acceso: octubre 2, 2025, https://segleg.chaco.gob.ar/seglegis/servlet/hconstramindivnuevo?2024,1,589 [cite: 149]
- Implicancias de los sesgos discriminatorios en la Inteligencia Artificial, fecha de acceso: octubre 2, 2025, https://publicacionescientificas.uces.edu.ar/index.php/ratioiurisB/article/view/1939/ 1939 [cite: 149]
- Impacto de la inteligencia artificial en las relaciones laborales | Derecho del Trabajo y la Seguridad Social - Revistas Universidad Externado de Colombia, fecha de acceso: octubre 2, 2025, https://revistas.uexternado.edu.co/index.php/dtss/article/view/9383/16285 [cite: 150]
- https://www.cuatrecasas.com/es/spain/laboral/art/ia-entorno-laboral-gestion-empr esarial#:~:text=La%20IA%20se%20ha%20convertido,mientras%20se%20minimiz an%20los%20riesgos. [cite: 151]
- 7 hábitos de seguridad y privacidad a la hora de usar inteligencia artificial - WeLiveSecurity, fecha de acceso: octubre 2, 2025, https://www.welivesecurity.com/es/seguridad-digital/7-habitos-seguridad-privacida d-inteligencia-artificial/ [cite: 152]