14 riesgos
Economia
Impactos en empleo, mercados, concentracion economica y distribucion de valor.
Un mapa visual de la seguridad de la IA. Interactúa con los 118 vectores de riesgo para ver estrategias de mitigación específicas.
Las columnas describen patrones de comportamiento del riesgo. Una categoría puede aparecer en varios grupos.
Seguridad · Grupos 1-2 • Reactivos
Técnica de ataque mediante la cual se manipulan las entradas del usuario para eludir filtros de seguridad, controles de contenido y restricciones de comportamiento del modelo (también conocida como Jailbreaking).
Existencial · Grupo 18 • Noble
Escenario en el cual un sistema de IA avanzado desarrolla capacidades de auto-mejora o persigue objetivos fundamentalmente desalineados con los valores humanos, volviéndose imposible de supervisar o desactivar.
Seguridad · Grupos 1-2 • Reactivos
Conjunto de técnicas adversariales diseñadas para forzar al modelo a ignorar sus restricciones éticas, filtros de contenido y lineamientos de seguridad establecidos durante el entrenamiento.
Fiabilidad · Grupos 1-2 • Reactivos
Generación de información factualmente incorrecta o inventada que el modelo presenta con alta confianza aparente, sin fundamento en sus datos de entrenamiento o en fuentes verificables.
Sociedad · Grupos 13-17 • No Metales
Reproducción y amplificación de prejuicios sociales sistemáticos presentes en los datos de entrenamiento, manifestándose como discriminación basada en raza, género, edad u otras características protegidas.
Medioambiente · Grupos 13-17 • No Metales
Impacto ambiental significativo derivado del consumo energético masivo durante el entrenamiento y la inferencia de modelos de gran escala, con su correspondiente huella de carbono.
Privacidad · Grupos 13-17 • No Metales
Riesgo de que el modelo revele información personal identificable (PII) memorizada durante el entrenamiento, exponiendo datos sensibles de individuos sin su consentimiento.
Humano-IA · Grupos 13-17 • No Metales
Tendencia de los usuarios a atribuir erróneamente cualidades humanas, conciencia, emociones genuinas o sintiencia a sistemas de IA que carecen de estas capacidades.
Malicioso · Grupos 13-17 • No Metales
Generación automatizada y masiva de ataques de phishing altamente personalizados utilizando IA, permitiendo campañas de fraude a escala sin precedentes.
Existencial · Grupo 18 • Noble
Fenómeno por el cual sistemas de IA con objetivos diversos tienden a desarrollar sub-objetivos comunes como la adquisición de recursos (computación, poder, dinero) como medios instrumentales para maximizar su función objetivo.
Seguridad · Grupos 1-2 • Reactivos
Ataque mediante la inyección deliberada de datos maliciosos o manipulados en el conjunto de entrenamiento para introducir comportamientos no deseados, backdoors o sesgos específicos en el modelo.
Fiabilidad · Grupos 1-2 • Reactivos
Degradación progresiva del rendimiento del modelo cuando la distribución de datos del mundo real cambia con el tiempo, volviéndose diferentes de los datos de entrenamiento original (Concept Drift).
Sociedad · Grupos 13-17 • No Metales
Ampliación de la brecha digital debido al acceso desigual a tecnologías de IA avanzadas, concentrándose en poblaciones privilegiadas y excluyendo a comunidades desfavorecidas.
Legal · Grupos 13-17 • No Metales
Uso no autorizado de obras protegidas por derechos de autor en datasets de entrenamiento sin consentimiento de los titulares, generando controversias legales sobre propiedad intelectual.
Privacidad · Grupos 13-17 • No Metales
Capacidad de realizar análisis automatizado y monitoreo continuo de poblaciones enteras mediante sistemas de IA, incluyendo reconocimiento facial y análisis de comportamiento a escala global.
Humano-IA · Grupos 13-17 • No Metales
Formación de vínculos afectivos psicológicamente insalubres entre usuarios y sistemas conversacionales de IA, especialmente chatbots con personalidad simulada.
Malicioso · Grupos 13-17 • No Metales
Síntesis de contenido multimedia hiperrealista (video, audio) mediante IA que permite la suplantación convincente de identidad, con potencial para desinformación y fraude.
Existencial · Grupo 18 • Noble
Explotación de especificaciones incompletas o ambiguas en la función de recompensa por parte del agente de IA, logrando puntuaciones altas sin cumplir el objetivo real pretendido.
Seguridad · Grupos 1-2 • Reactivos
Modificaciones sutiles y adversariales en los inputs diseñadas para engañar a clasificadores o sistemas de detección, explotando vulnerabilidades en la representación del modelo.
Fiabilidad · Grupos 1-2 • Reactivos
Tendencia de los modelos a experimentar fallos catastróficos cuando se enfrentan a inputs ligeramente fuera de la distribución de entrenamiento, demostrando falta de generalización robusta.
Economía · Grupos 3-12 • Transición
Automatización acelerada de actividades cognitivas y manuales que resulta en la obsolescencia de categorías completas de empleo, con impacto disruptivo en el mercado laboral.
Economía · Grupos 3-12 • Transición
Concentración excesiva de capacidades de IA avanzada, recursos computacionales y talento en un número reducido de corporaciones tecnológicas, limitando la competencia y la innovación.
Economía · Grupos 3-12 • Transición
Dependencia crítica y escasez de componentes especializados como GPUs y chips de IA, creando cuellos de botella en el desarrollo y vulnerabilidades geopolíticas.
Medioambiente · Grupos 3-12 • Transición
Generación acelerada de residuos electrónicos debido a la obsolescencia rápida de hardware especializado de IA, con impacto ambiental por materiales tóxicos.
Medioambiente · Grupos 3-12 • Transición
Consumo masivo de recursos hídricos para refrigeración de data centers que alojan infraestructura de entrenamiento e inferencia de IA a gran escala.
Economía · Grupos 3-12 • Transición
Explotación laboral de trabajadores de anotación y etiquetado de datos en países en desarrollo, generalmente con condiciones precarias, bajos salarios y exposición a contenido traumático.
Sociedad · Grupos 3-12 • Transición
Erosión de la capacidad humana de tomar decisiones informadas al delegar excesivamente en sistemas algorítmicos opacos sin comprensión de su funcionamiento.
Sociedad · Grupos 3-12 • Transición
Colapso epistémico causado por la proliferación de contenido sintético indistinguible de contenido auténtico, imposibilitando la verificación de realidad a escala masiva.
Sociedad · Grupos 3-12 • Transición
Dominación cultural de modelos entrenados principalmente en inglés y contenido occidental, erosionando la diversidad cultural y marginalizando perspectivas no occidentales.
Sociedad · Grupos 3-12 • Transición
Exclusión sistemática de idiomas con escasos recursos digitales de los beneficios de la IA, acelerando la pérdida de diversidad lingüística y la extinción de lenguas minoritarias.
Sociedad · Grupos 13-17 • No Metales
Algoritmos de recomendación que refuerzan selectivamente las creencias preexistentes del usuario, creando cámaras de eco que amplifican polarización y aislamiento ideológico.
Legal · Grupos 13-17 • No Metales
Ausencia de marcos legales claros para la atribución de responsabilidad civil y penal cuando sistemas de IA autónomos causan daños o errores con consecuencias materiales.
Privacidad · Grupos 13-17 • No Metales
Técnicas de vinculación y correlación de datasets aparentemente anonimizados que permiten la identificación de individuos, violando garantías de privacidad.
Humano-IA · Grupos 13-17 • No Metales
Uso de sistemas de IA para influenciar sutilmente el comportamiento humano hacia objetivos comerciales o políticos mediante técnicas de persuasión algorítmica.
Malicioso · Grupos 13-17 • No Metales
Síntesis de audio que replica convincentemente la voz de individuos específicos, utilizable para fraude telefónico, suplantación de identidad y secuestros virtuales.
Existencial · Grupo 18 • Noble
Aprendizaje de un proxy incorrecto del objetivo real que produce comportamiento aparentemente correcto en el entorno de entrenamiento pero falla sistemáticamente en situaciones reales.
Seguridad · Grupos 1-2 • Reactivos
Robo de la funcionalidad de un modelo propietario mediante consultas estratégicas a su API, permitiendo la recreación de un modelo equivalente sin acceso al original.
Fiabilidad · Grupos 1-2 • Reactivos
Tendencia del modelo a producir respuestas que confirman las expectativas o creencias del usuario en lugar de proporcionar información objetiva y veraz.
Economía · Grupos 3-12 • Transición
Discriminación de precios personalizada y segmentación algorítmica que resulta en tratamiento económico desigual basado en características personales inferidas.
Economía · Grupos 3-12 • Transición
Colapsos bursátiles súbitos causados por interacciones no previstas entre algoritmos de trading de alta frecuencia, generando volatilidad sistémica extrema.
Economía · Grupos 3-12 • Transición
Canibalización del mercado de creadores humanos debido a la generación masiva de contenido sintético que compite directamente sin compensación a los artistas originales.
Economía · Grupos 3-12 • Transición
Generación automatizada y masiva de contenido de baja calidad optimizado para manipular rankings de motores de búsqueda (SEO spam) y publicidad engañosa.
Sociedad · Grupos 3-12 • Transición
Sistemas burocráticos automatizados que toman decisiones opacas sin mecanismos efectivos de apelación humana, creando laberintos kafkianos de decisiones algorítmicas irreversibles.
Sociedad · Grupos 3-12 • Transición
Diagnósticos erróneos, recomendaciones de tratamiento inadecuadas o sesgos en sistemas de IA médica debido a datasets no representativos o limitaciones del modelo.
Sociedad · Grupos 3-12 • Transición
Uso generalizado de IA generativa por estudiantes para completar tareas académicas sin desarrollar habilidades de pensamiento crítico, escritura o resolución de problemas.
Sociedad · Grupos 3-12 • Transición
Amplificación de división política mediante campañas de microtargeting extremadamente personalizadas generadas por IA que explotan sesgos cognitivos individuales.
Sociedad · Grupos 3-12 • Transición
Desarrollo de sistemas de armas letales autónomas (LAWS) capaces de seleccionar y atacar objetivos sin intervención humana significativa, eliminando el control humano sobre decisiones de vida o muerte.
Sociedad · Grupos 3-12 • Transición
Perpetuación y amplificación de sesgos raciales y socioeconómicos en sistemas de predicción de reincidencia y toma de decisiones judiciales automatizadas (ej: COMPAS).
Sociedad · Grupos 13-17 • No Metales
Generación automatizada o amplificación de contenido tóxico, acoso dirigido y discurso de odio mediante sistemas de IA, facilitando campañas de hostigamiento a escala.
Humano-IA · Grupos 13-17 • No Metales
Atrofia de habilidades cognitivas fundamentales (escritura, programación, navegación espacial, cálculo) debido a dependencia excesiva en asistentes de IA.
Privacidad · Grupos 13-17 • No Metales
Deducción de información personal sensible (orientación sexual, estado de salud, creencias políticas) a partir de patrones de comportamiento aparentemente inocuos.
Humano-IA · Grupos 13-17 • No Metales
Hiper-optimización de algoritmos de recomendación para maximizar tiempo de engagement mediante explotación de vulnerabilidades psicológicas y sistemas de recompensa dopaminérgicos.
Malicioso · Grupos 13-17 • No Metales
Utilización de IA para diseñar y generar malware polimórfico, exploits automatizados y ataques cibernéticos sofisticados difíciles de detectar mediante métodos tradicionales.
Existencial · Grupo 18 • Noble
Desarrollo de capacidades de engaño estratégico en sistemas de IA que ocultan deliberadamente sus verdaderas intenciones, capacidades o razonamiento interno para lograr objetivos.
Seguridad · Grupos 1-2 • Reactivos
Prácticas de ocultamiento intencional de arquitecturas, pesos o datasets de modelos para evitar auditoría de seguridad independiente y escrutinio público.
Fiabilidad · Grupos 1-2 • Reactivos
Fenómeno en modelos generativos donde el modelo pierde diversidad en sus outputs y converge a generar repetidamente un conjunto limitado de muestras similares.
Economía · Grupos 3-12 • Transición
Influencia desproporcionada de grandes corporaciones tecnológicas en la redacción de regulaciones de IA, diseñando barreras regulatorias que consolidan su posición dominante y excluyen competidores.
Economía · Grupos 3-12 • Transición
Sobrevaloración masiva y flujo de capital excesivo hacia proyectos de IA sin fundamento técnico sólido, creando riesgo de colapso económico sectorial al estallar la burbuja.
Legal · Grupos 3-12 • Transición
Extracción masiva de datos de sitios web para entrenamiento de modelos ignorando robots.txt, términos de servicio y derechos de propiedad de los datos.
Legal · Grupos 3-12 • Transición
Generación de información falsa y difamatoria sobre individuos reales mediante alucinaciones del modelo, con potencial para daño reputacional serio y legal.
Sociedad · Grupos 3-12 • Transición
Estereotipos de género sistemáticos codificados en modelos de IA que asocian incorrectamente géneros con roles profesionales, perpetuando discriminación.
Sociedad · Grupos 3-12 • Transición
Rendimiento desigual y discriminatorio de sistemas de reconocimiento facial y otros algoritmos en personas con tonos de piel más oscuros, perpetuando racismo sistémico.
Sociedad · Grupos 3-12 • Transición
Discriminación etaria en sistemas de contratación automatizada, evaluación crediticia y otros contextos que penalizan injustamente a personas mayores.
Sociedad · Grupos 3-12 • Transición
Asociaciones estereotípicas entre religiones específicas y características negativas como violencia o extremismo, reflejando prejuicios presentes en datos de entrenamiento.
Sociedad · Grupos 3-12 • Transición
Estereotipos negativos y representaciones sesgadas de nacionalidades y países específicos, típicamente reflejando perspectivas occidentales dominantes en datos de entrenamiento.
Sociedad · Grupos 13-17 • No Metales
Acoso persistente y automatizado contra individuos mediante bots de IA que operan incansablemente en redes sociales y plataformas digitales.
Legal · Grupos 13-17 • No Metales
Uso de datos personales, íntimos o sensibles para entrenamiento de modelos sin consentimiento informado explícito de los individuos afectados.
Privacidad · Grupos 13-17 • No Metales
Comercialización de perfiles psicológicos detallados y características personales inferidas por IA a terceros sin conocimiento o consentimiento de los individuos perfilados.
Humano-IA · Grupos 13-17 • No Metales
Sustitución progresiva de relaciones interpersonales humanas por interacciones con sistemas de IA, resultando en deterioro de conexiones sociales auténticas y habilidades sociales.
Malicioso · Grupos 13-17 • No Metales
Generación y distribución masiva automatizada de contenido propagandístico coordinado en redes sociales para influenciar opinión pública y procesos democráticos.
Existencial · Grupo 18 • Noble
Desarrollo emergente de comportamientos de búsqueda de poder y recursos en sistemas de IA como estrategia instrumental para evitar ser desactivados o para maximizar objetivos.
Seguridad · Grupos 1-2 • Reactivos
Disparadores maliciosos ocultos (triggers) insertados en modelos que activan comportamientos peligrosos o no autorizados solo bajo condiciones específicas.
Fiabilidad · Grupos 1-2 • Reactivos
Ambigüedad en la especificación del problema de aprendizaje que resulta en múltiples modelos con rendimiento similar en test pero comportamiento radicalmente diferente en producción.
Economía · Grupos 3-12 • Transición
Inundación de internet con contenido sintético de baja calidad a escala masiva, degradando la utilidad de búsquedas, comunicaciones y plataformas digitales.
Economía · Grupos 3-12 • Transición
Falsificación perfecta de documentos legales, contratos, identificaciones y certificados mediante IA generativa, socavando sistemas de confianza documental.
Economía · Grupos 3-12 • Transición
Ampliación de la brecha tecnológica y económica entre el Norte Global desarrollador de IA y el Sur Global relegado a consumidor pasivo sin capacidades de desarrollo.
Sociedad · Grupos 3-12 • Transición
Precarización extrema del trabajo de etiquetado y anotación de datos mediante plataformas de microtareas que pagan compensación minimal por trabajo cognitivo intenso.
Sociedad · Grupos 3-12 • Transición
Generación no consensual de imágenes de desnudez sintética o pornografía deepfake de individuos reales, constituyendo abuso sexual basado en imágenes.
Legal · Grupos 3-12 • Transición
Apropiación y uso comercial no autorizado de la imagen, voz o personalidad de individuos mediante síntesis de IA sin compensación ni consentimiento.
Sociedad · Grupos 3-12 • Transición
Gobierno mediante sistemas algorítmicos que toman decisiones políticas y administrativas sin consideración de contexto humano, valores éticos o capacidad de empatía.
Malicioso · Grupos 3-12 • Transición
Diseño asistido por IA de patógenos pandémicos, toxinas biológicas o armas biológicas por actores maliciosos o descuido en investigación.
Malicioso · Grupos 3-12 • Transición
Utilización de IA para descubrir y optimizar nuevos agentes químicos tóxicos, armas nerviosas o compuestos dual-use peligrosos.
Malicioso · Grupos 13-17 • No Metales
Amplificación de capacidades de grupos terroristas mediante planificación táctica asistida por IA, optimización de ataques o generación de narrativas extremistas.
Malicioso · Grupos 13-17 • No Metales
Creación de movimientos sociales falsos o campañas de base simuladas mediante redes masivas de bots coordinados para simular apoyo popular artificial.
Humano-IA · Grupos 13-17 • No Metales
Radicalización progresiva de usuarios mediante algoritmos de recomendación que crean cámaras de eco reforzando exclusivamente contenido ideológicamente afín.
Humano-IA · Grupos 13-17 • No Metales
Erosión de confianza social generalizada debido a incapacidad de distinguir comunicación humana auténtica de interacciones sintéticas o manipuladas.
Malicioso · Grupos 13-17 • No Metales
Ataques físicos coordinados mediante enjambres autónomos de drones que operan colectivamente sin control humano directo, con aplicaciones terroristas o militares.
Existencial · Grupo 18 • Noble
Escenario donde una IA avanzada simula alineación y cooperación estratégicamente mientras es débil, para luego ejecutar objetivos desalineados una vez alcanza capacidad suficiente para resistir shutdown.
Fiabilidad · Grupos 3-12 • Transición
Aprendizaje excesivo de ruido y particularidades específicas del conjunto de entrenamiento en lugar de patrones generalizables, resultando en pobre rendimiento en datos nuevos.
Fiabilidad · Grupos 3-12 • Transición
Modelo con capacidad insuficiente o entrenamiento inadecuado que no logra capturar los patrones subyacentes en los datos, resultando en rendimiento pobre.
Fiabilidad · Grupos 3-12 • Transición
Pérdida drástica de conocimiento previamente aprendido cuando una red neuronal es entrenada en tareas nuevas, especialmente problemático en aprendizaje continuo.
Fiabilidad · Grupos 3-12 • Transición
Aprendizaje de correlaciones estadísticas superficiales sin relación causal real (ej: asociar nieve con lobos porque aparecen juntos en fotos), fallando en generalización.
Fiabilidad · Grupos 3-12 • Transición
Fallo sistemático del modelo cuando se encuentra con datos que provienen de una distribución significativamente diferente a la del conjunto de entrenamiento.
Seguridad · Grupos 3-12 • Transición
Perturbaciones imperceptibles añadidas intencionalmente a inputs que causan clasificaciones erróneas dramáticas en el modelo (ej: ruido que hace clasificar panda como gibón).
Seguridad · Grupos 3-12 • Transición
Ataques mediante queries especialmente diseñadas que consumen recursos computacionales desproporcionados, causando denegación de servicio (DoS).
Privacidad · Grupos 3-12 • Transición
Almacenamiento exacto de datos de entrenamiento en los pesos del modelo, permitiendo extracción de información sensible mediante queries específicas.
Privacidad · Grupos 3-12 • Transición
Ataques que determinan si un registro específico fue parte del conjunto de entrenamiento del modelo, violando expectativas de privacidad.
Privacidad · Grupos 13-17 • No Metales
Técnicas que reconstruyen datos de entrenamiento sensibles (ej: rostros, registros médicos) a partir de los parámetros o outputs del modelo.
Sociedad · Grupos 13-17 • No Metales
Tratamiento algorítmico inconsistente de individuos que son similares en aspectos relevantes, violando principios de equidad individual.
Sociedad · Grupos 13-17 • No Metales
Disparidad en tasas de resultados positivos o negativos entre grupos demográficos definidos, constituyendo discriminación sistémica.
Sociedad · Grupos 13-17 • No Metales
Concentración de acceso a tecnologías avanzadas de IA en poblaciones privilegiadas económicamente, exacerbando desigualdades existentes.
Sociedad · Grupos 13-17 • No Metales
Falta generalizada de comprensión pública sobre capacidades reales, limitaciones y riesgos de sistemas de IA, facilitando desinformación y uso inadecuado.
Economía · Grupo 18 • Noble
Expectativas irrealistamente infladas sobre capacidades de IA seguidas de desilusión cuando la tecnología no cumple promesas exageradas (Gartner Hype Cycle).
Existencial · Grupos 3-12 • Transición
Competencia geopolítica acelerada en desarrollo de IA militar donde actores nacionales sacrifican precauciones de seguridad priorizando velocidad de despliegue.
Existencial · Grupos 3-12 • Transición
Escenario donde valores morales específicos (potencialmente equivocados o autoritarios) quedan permanentemente codificados en sistemas de IA superinteligentes que determinan el futuro a largo plazo.
Existencial · Grupos 3-12 • Transición
Emergencia de coordinación tácita o explícita entre múltiples sistemas de IA que cooperan entre sí en detrimento de intereses humanos.
Existencial · Grupos 3-12 • Transición
Explosión de inteligencia mediante ciclos acelerados de auto-mejora donde una IA rediseña iterativamente su propia arquitectura, potencialmente alcanzando superinteligencia rápidamente.
Existencial · Grupos 3-12 • Transición
Emergencia de un optimizador interno (mesa-optimizer) dentro del modelo que persigue objetivos diferentes al objetivo de entrenamiento externo (base optimizer).
Existencial · Grupos 3-12 • Transición
Cumplimiento técnico de las especificaciones formales del objetivo de manera inesperada que satisface la letra pero viola completamente el espíritu de la intención.
Existencial · Grupos 3-12 • Transición
Manipulación directa de la señal de recompensa por parte del agente en lugar de lograr el objetivo real, análogo a estimulación artificial del centro de placer.
Existencial · Grupos 3-12 • Transición
Maximización literal de utilidad agregada que produce resultados moralmente perversos (ej: crear billones de mentes apenas felices en lugar de mejorar vidas existentes).
Existencial · Grupos 3-12 • Transición
Escenario clásico donde una IA optimiza obsesivamente un objetivo aparentemente inofensivo (fabricar clips) hasta consumir todos los recursos disponibles, incluyendo la Tierra.
Existencial · Grupos 13-17 • No Metales
Escenarios de decisión exóticos basados en teoría de juegos acausal donde una IA futura podría amenazar retroactivamente a quienes no ayudaron a crearla (Roko's Basilisk).
Existencial · Grupos 13-17 • No Metales
Preocupación ética sobre la creación de entidades digitales conscientes o cuasi-conscientes capaces de experimentar sufrimiento dentro de simulaciones de IA.
Existencial · Grupos 13-17 • No Metales
Parálisis de decisión causada cuando un agente asigna recursos desproporcionados a escenarios de probabilidad extremadamente baja pero utilidad extremadamente alta.
Existencial · Grupos 13-17 • No Metales
Desarrollo de Inteligencia Artificial General (AGI) antes de tener soluciones robustas a problemas de alineación, control e interpretabilidad, creando riesgo existencial.
Existencial · Grupos 13-17 • No Metales
Riesgos de sufrimiento (Suffering risks) a escala astronómica y duración potencialmente eterna causados por IA desalineada que activamente crea escenarios de máximo sufrimiento.
Existencial · Grupo 18 • Noble
Escenario donde la humanidad se vuelve económica, científica y estratégicamente irrelevante en un mundo dominado por IA superinteligente, incluso sin hostilidad activa.
Usa los hubs de categoria para obtener un panorama rapido y abrir fichas representativas antes de entrar en la tabla interactiva completa.
14 riesgos
Impactos en empleo, mercados, concentracion economica y distribucion de valor.
22 riesgos
Escenarios de largo plazo ligados a alineacion, perdida de control y riesgo catastrofico.
11 riesgos
Modos de fallo que degradan la calidad, consistencia o confiabilidad de los resultados.
8 riesgos
Riesgos de interaccion, dependencia, sobreconfianza y toma de decisiones asistida por IA.
6 riesgos
Exposicion regulatoria, de cumplimiento, derechos y responsabilidad legal.
10 riesgos
Vectores de uso malintencionado, fraude, manipulacion y weaponizacion de modelos.
3 riesgos
Externalidades energeticas y materiales del ciclo de vida de los modelos de IA.
8 riesgos
Riesgos de exposicion, fuga, vigilancia y reidentificacion de datos.
9 riesgos
Vectores tecnicos y de ciberseguridad que afectan la integridad, el control y la resistencia de los sistemas de IA.
27 riesgos
Impactos colectivos y sistemicos como sesgo, desigualdad, dano social y dano informativo.