Como los de psicosis inducida por chatbots (programa informático diseñado para simular conversaciones humanas, ya sea por texto o voz, permitiendo a los usuarios interactuar con servicios digitales). Y también culpan a los centros de datos del aumento de los precios de la electricidad o se preguntan si los niños deberían tener acceso sin restricción a la IA y en ese caso, por qué se les permite acceder a redes sociales que utilizan la IA, para desnudar mujeres.
En otras palabras, la gente está alarmada, pues parece que la IA tiene el don de la obicuidad y está en todas partes, pero no siempre se obtienen resultados favorables para la ciudadanía.
Por ello, inevitablemente la opinión pública ha cambiado respecto a los inicios de la IA que parecía todo de color rosa, pues la inteligencia artificial ya está produciendo todos estos efectos en cadena, pero si la tecnología mejora, ¿qué sucederá después?
Primero, desconocemos si los modelos de lenguaje (LLMs) de gran tamaño, seguirán volviéndose incrementalmente más inteligentes en el futuro cercano. Dado que esta tecnología en particular, es la que sostiene prácticamente todo el entusiasmo y la ansiedad actuales en torno a la IA, impulsando todo, desde los compañeros de IA hasta los agentes de atención al cliente, su ralentización sería un asunto importante.
En segundo lugar, la IA es enormemente impopular entre el público general. He aquí solo un ejemplo: hace casi un año, Sam Altman, de OpenAI, apareció junto al presidente Trump para anunciar con entusiasmo un proyecto de 500.000 millones de dólares (unos 465.570 millones de euros) para construir centros de datos por todo Estados Unidos con el fin de entrenar modelos de IA cada vez más grandes. Ninguno de los dos pareció prever, o importarles, que muchos estadounidenses se opondrían firmemente a que se construyeran esos centros cerca de sus comunidades. Un año después, las grandes tecnológicas libran una dura batalla para ganarse la opinión pública y seguir construyendo. ¿Lo lograrán?
La respuesta de los legisladores ante esta frustración es terriblemente confusa. Trump ha complacido a los directores ejecutivos de Silicon Valley al intentar convertir la regulación de la IA en una cuestión federal en lugar de estatal, y ahora las empresas tecnológicas esperan plasmar esto en la ley. Pero el grupo de personas que quiere proteger a los niños de los chatbots abarca desde legisladores progresistas en California hasta la Comisión Federal de Comercio, cada vez más alineada con Trump, cada uno con motivos y enfoques distintos.
Y entonces surgen las siguientes preguntas sobre la tercera incógnita:
- ¿Podrán los políticos dejar a un lado sus diferencias y contener (regular) a las empresas de IA?
- No será que se está usando la IA para cosas objetivamente buenas, como mejorar la salud, acelerar descubrimientos científicos o comprender mejor el cambio climático?
Bueno… más o menos. El machine learning, una forma más antigua de IA, se ha utilizado durante mucho tiempo en todo tipo de investigaciones científicas. Una de sus ramas, llamada deep learning, forma parte de AlphaFold, una herramienta de predicción de proteínas galardonada con el Nobel que ha transformado la biología. Los modelos de reconocimiento de imágenes están mejorando en la identificación de células cancerosas.
Pero el desempeño de los chatbots basados en modelos de lenguaje más recientes es más modesto. Tecnologías como ChatGPT son bastante buenas para analizar grandes cantidades de investigación y resumir lo que ya se ha descubierto. Pero algunos informes muy llamativos sobre supuestos “hallazgos” de estos modelos, como resolver un problema matemático previamente sin solución, eran falsos. Estos sistemas pueden ayudar a los médicos con diagnósticos, pero también pueden alentar a las personas a auto diagnosticarse sin consultar a un profesional, a veces con resultados desastrosos.
Y respecto la pregunta anterior sobre regulación de la IA, mencionada en la tercera incógnita, posiblemente Trump dijese, que si eso, ya tal. Y además, quizás añadiese, que no le parece muy bien (es decir, bastante mal) que la UE regule la IA sin su consentimiento, por aquello del daño al bolsillo de las tecnológicas (que si mal no recuerdo, son productos o servicios, made in USA) no por los derechos humanos, evidentemente.
Fuente: MIT Technology Review
IA. El fantasma de la sustitución en nuevos modelos de Inteligencia
Artificial
Es difícil valorar correctamente las repercusiones de este posible cambio sobre, el mercado
laboral, la economía, la educación, y en general, de la sociedad en la que vivimos.
El
desarrollo de los modelos de lenguaje de inteligencia artificial ha ido tan
ligado a los mercados financieros que hace difícil discernir el humo bursátil
del fuego tecnológico. El lanzamiento de ChatGPT primero, y la carrera
posterior de las grandes tecnológicas por lanzar y actualizar los suyos, no se
pueden entender sin tener en cuenta las ingentes necesidades de capital que
requieren los centros de datos. La tecnología precisaba de la fiebre bursátil
para desarrollarse al ritmo que sus promotores, con los bolsillos llenos, exigían, al igual que sus propios accionistas. Ello derivó en situaciones a
veces grotescas, como el lanzamiento de varias plataformas de creación de vídeo
enfocadas al meme, a veces repugnantes, como la sexualización de menores por
parte de Grok —modelo de inteligencia artificial desarrollado por xIA, propiedad de Elon Musk— y a veces preocupantes, como los deepfakes (*) .
Pobres
réditos para una tecnología que no solo prometía cambiar el mundo, sino que ha
requerido inversiones sin precedentes. El debate sobre la burbuja ha sido, y
es, pertinente a la luz del volumen de gastos y, también, del rendimiento
esperado. Pero el ajuste de los modelos está moviendo la brújula financiera, y
el impacto se puede notar pronto a pie de calle. Los nuevos modelos han
cambiado los memes por tareas propias de trabajadores especializados, como
programación informática, redacción de textos legales o análisis de datos. Los
mercados han tomado nota de ello, con fuertes caídas en empresas cuyo modelo de
negocio está supuestamente amenazado.
Pero,
de concretarse las expectativas actuales, la disrupción puede ser mucho más
abultada, y traumática, en el mercado laboral. El temor a la sustitución de
empleos de oficina por modelos de IA especializados se ha extendido como una
mancha de aceite en las últimas semanas, espoleado tanto por las masivas caídas
en determinadas empresas como por las alertas de algunos directivos dentro y
fuera del sector tecnológico.
No hay
que tomar al pie de la letra los movimientos de unas Bolsas que siempre tienden
a reaccionar en exceso. Pero si la IA pasa de ser una máquina que lee y redacta
(bien) textos para poder realizar tareas específicas, de complejidad media y a
la velocidad de la luz, el elenco de puestos potencialmente amenazados da un
salto tanto en cantidad como en espectro. Es extremadamente difícil subestimar
las repercusiones de este posible cambio sobre el mercado laboral, la economía,
la educación y, en general, la sociedad en la que vivimos.
Aunque algunos se aventuran a decir, que en buena lógica, las profesiones de cuello blanco serán las más perjudicadas. Veremos.
(*) Deepfakes.- Son falsas imágenes,
videos o audios, que han sido editados o bien generados por medio de la IA, referidos a personas reales o inexistentes.
Fuente:
CincoDias.com
IA. Centros de datos hiperescalables: prodigio técnico y conflicto
democrático
Como el
corazón de la revolución de la inteligencia artificial se alzan los centros de
datos a hiperescala.
Cual catedrales contemporáneas de acero, aluminio y hormigón, donde miles de chips especializados trabajan en paralelo para procesar
volúmenes colosales de información.
Infraestructuras capaces de consumir
cientos de megavatios-hora, extenderse por millones de metros cuadrados y
conectar cientos de miles de GPU de alta gama, cada una con un coste que puede
superar los 30.000 euros/dólares.
Desde el punto de vista técnico, constituyen una
maravilla de la ingeniería moderna. Desde el punto de vista social, se han
convertido en uno de los símbolos más visibles —y más controvertidos— del poder
de la industria tecnológica.
La
magnitud del fenómeno no es menor sino mayor, que diría Rajoy.
En Estados Unidos, el auge de estas
instalaciones ha sido tan acelerado que algunos analistas sostienen que la
inversión en centros de datos está apuntalando sectores enteros del mercado
bursátil.
El propio presidente de EE.UU. compareció junto al CEO de OpenAI para anunciar
una inversión privada de 500.000 millones de dólares destinada a ampliar esta
infraestructura crítica.
La señal es inequívoca, la IA no es solo una promesa
tecnológica, sino que se ha convertido, en prioridad estratégica nacional.
Y, sin
embargo, la reacción ciudadana dista mucho del entusiasmo institucional.
Las
razones del rechazo son múltiples y, en buena medida, racionales. El consumo
energético masivo exige ampliar infraestructuras que repercuten en los
consumidores. En algunos casos, como el proyecto de Meta en Wyoming, la demanda
prevista supera la de todos los hogares del estado juntos.
A ello se suman
preocupaciones ambientales, como uso intensivo de agua, dependencia de fuentes
contaminantes y el zumbido constante que acompaña a estas instalaciones, como autopista de tráfico permanente. Incluso la promesa de empleo resulta limitada,
pues una vez concluida la construcción, la operación cotidiana requiere
relativamente pocos trabajadores.
Pero
junto a estos argumentos tangibles, existe una dimensión emocional más profunda.
Los centros de datos representan físicamente una transformación tecnológica que
muchos perciben como incontrolable.
La inteligencia artificial se integra de
manera creciente en servicios cotidianos, desde buscadores hasta herramientas
de productividad. Aunque alguien decida no usar aplicaciones basadas en IA, es
probable que interactúe con sistemas que la incorporan. La sensación de pérdida
de agencia —que el cambio se produce sin consentimiento ni consulta a la ciudadanía— alimenta la
resistencia.
Hoy en día, no se
puede frenar el avance de la IA global, pero quizá se pueda impedir la
construcción de un centro de datos en el propio municipio.
En el
fondo, el conflicto en torno a los centros de datos hiperescalables, revela una
tensión estructural entre innovación y legitimidad democrática.
La IA promete
curar enfermedades, aumentar la productividad y generar nuevas formas de
conocimiento. Pero esas promesas conviven con costos ambientales, económicos y
sociales distribuidos de manera desigual.
Cuando las comunidades sienten que no
participan en la toma de decisiones ni en los beneficios, la resistencia emerge
como forma de reclamar voz.
El
desafío no es puramente tecnológico, sino político. Si la IA ha de convertirse
en infraestructura básica de la sociedad, su desarrollo no puede depender
únicamente de incentivos fiscales y capital privado. Requiere transparencia
sobre consumo energético y de agua, mecanismos equitativos de financiación de
la red eléctrica y una participación ciudadana real en los procesos de
planificación.
Los
centros de datos a hiperescala son, sin duda, prodigios de nuestra era. Pero su
legitimidad dependerá menos de la potencia de sus GPU que de la capacidad de
nuestras instituciones para integrar innovación y justicia distributiva.
De lo
contrario, cada nuevo complejo levantado será no solo una hazaña de ingeniería,
sino también un recordatorio tangible de una brecha creciente entre quienes
diseñan el futuro digital y quienes deben convivir con sus cimientos físicos.
Fuente:
MIT Technology Review
IA. OpenAI toma ventaja en el sector de la Inteligencia Artificial, al absorber a la popular OpenClaw y fichar a
su creador.
Golpe
de efecto de Sam Altman frente a Anthropic. El acuerdo llega en plena
negociación para la nueva ronda de financiación
OpenAI
ha dado un importante zarpazo a sus competidores en el mundo de la inteligencia
artificial (IA). Su consejero delegado, Sam Altman, ha anunciado que el creador
del agente viral de IA (*) OpenClaw, Peter Steinberger, se ha unido a la
creadora de ChatGPT. Con este movimiento, el directivo se adelanta a otros
rivales como Anthropic, xAI, empresa de Elon Musk creadora de Grok, y Alphabet,
aspirantes también a quedarse con la start-up. OpenClaw se mantendrá como una
fundación con un proyecto de código abierto, bajo el paraguas de OpenAI.
“Peter
Steinberger se une a OpenAI para impulsar la próxima generación de agentes
personales. Es un genio con ideas increíbles sobre el futuro de los agentes
inteligentes que interactúan entre sí para hacer cosas muy útiles para las
personas. Esperamos que esto se convierta rápidamente en un elemento central de
nuestra oferta de productos. OpenClaw se sustentará como un proyecto de código
abierto que OpenAI seguirá apoyando. El futuro será extremadamente multiagente,
y para nosotros es importante apoyar el código abierto como parte de ello”, ha
afirmado Altman en un mensaje en la red social X.
Anteriormente
denominado Clawdbot y Moltbot, OpenClaw fue lanzado el mes pasado por el citado
desarrollador de software austriaco Peter Steinberger. Su popularidad ha
aumentado, en parte gracias a la atención en redes sociales, a medida que
consumidores y empresas se han ido volcando hacia productos que pueden
completar tareas, tomar decisiones y actuar de forma autónoma en nombre de los
usuarios sin necesidad de una guía humana constante.
OpenClaw
se ha extendido con gran velocidad en China y puede combinarse con modelos de
lenguaje desarrollados en ese mismo país, como DeepSeek, y configurarse para
funcionar con aplicaciones de mensajería chinas mediante configuraciones
personalizadas. El conocido buscador chino Baidu también planea ofrecer a los
usuarios de su principal aplicación para smartphones acceso directo a OpenClaw.
Algunos
investigadores están preocupados por la transparencia de OpenClaw y las
ciberamenazas que podría provocar la posibilidad de que los usuarios lo
modifiquen prácticamente a su antojo.
(*) Agente
IA.- Es un sistema de software avanzado capaz de percibir su entorno,
razonar, planificar y ejecutar acciones autónomas para alcanzar objetivos
específicos con mínima intervención humana.
Fuente:
El País.com
INTELIGENCIA ARTIFICIAL. La francesa Doctrine compra Maite.ai y lleva
su IA jurídica a España
La ‘start-up’
española ofrece sus servicios a más de 2.000 clientes, entre abogados, grandes
despachos, departamentos corporativos y administraciones públicas
Doctrine,
una de las principales compañías europeas del ámbito de la inteligencia
artificial (IA) del ámbito jurídico, ha cerrado la adquisición de Maite.ai, una
de las mayores start-ups españolas del sector, que está experimentando un
fuerte crecimiento, con grupos como la estadounidense Harvey AI y la italiana
Lexroom, que tienen planes de expansión en España. Los términos financieros de
la transacción no se han publicado.
Fundada
en 2024, Maite.ai se ha consolidado como una de las referencias nacionales en
IA jurídica en España, según señala Doctrine, que añade que, en 2025, la firma
española multiplicó su ARR (ingresos recurrentes anuales) por 20 y ahora da
servicio a más de 2.000 clientes, incluyendo abogados independientes, grandes
despachos, departamentos legales corporativos y administraciones públicas.
La
empresa señala que Maite.ai es un copiloto de IA avanzado que cubre todo el
flujo de trabajo jurídico aprovechando la legislación y la jurisprudencia, así
como la documentación privada cargada por sus usuarios. Según la firma, esta
tecnología ha demostrado un nivel excelente de precisión, logrando una tasa de
éxito del 99 por ciento en el examen de acceso a la judicatura española.
Fuente:
Cinco Días.com
IA. Reino Unido
utiliza la inteligencia artificial para fines civiles y militares.
El Reino Unido, como ejemplo
de la aplicación de la IA en fines civiles y del empleo de los Agentes IA militares
para fines defensivos (ver Anexos, III y IV).
El
Reino Unido se ha encontrado en un momento decisivo en el que la inteligencia
artificial (IA) deja de ser una promesa futurista para convertirse en un
instrumento estratégico con aplicaciones científicas y militares.
La reciente
duplicación de la inversión en proyectos de “científicos de IA” por parte de la
Advanced Research and Invention Agency (ARIA), junto con la presentación del
programa Bastión Atlántico para fortalecer la defensa submarina frente a Rusia,
revela una apuesta integral por situarse en la vanguardia tecnológica. Ciencia
y defensa, dos ámbitos históricamente vinculados al progreso y al poder
estatal, convergen hoy bajo el impulso de sistemas autónomos capaces de
transformar la manera en que se investiga y se protege la soberanía nacional.
No
obstante, el entusiasmo se combina con cautela. Estudios recientes han mostrado
que los agentes basados en grandes modelos de lenguaje pueden desviarse de los
objetivos originales o proclamar éxitos prematuros. La autonomía plena todavía
enfrenta limitaciones técnicas y epistemológicas. En este sentido, la
estrategia de ARIA —financiación limitada en tiempo y recursos— funciona
también como experimento institucional: evaluar qué es realmente vanguardia y
qué es exageración mediática. La agencia reconoce que no espera premios Nobel
inmediatos, pero sí una aceleración significativa del ritmo científico.
Paralelamente,
el Reino Unido traslada la innovación basada en IA al terreno de la defensa. El
programa Bastión Atlántico responde a la creciente preocupación por la
actividad submarina rusa en el Atlántico Norte. La protección de cables y
gasoductos submarinos se ha convertido en prioridad estratégica, especialmente
en el contexto de la guerra en Ucrania. Bajo el liderazgo del ministro de
Defensa, John Healey, el proyecto apuesta por sensores inteligentes capaces de
detectar submarinos y por una fuerza naval híbrida que combine IA con buques y
aeronaves avanzadas. La tecnología, en este caso, no busca ampliar el
conocimiento, sino preservar la seguridad y la infraestructura crítica.
Ambas
iniciativas —científica y militar— comparten una misma lógica: la
automatización como multiplicador de capacidades humanas.
En la ciencia,
significa acelerar descubrimientos y reducir tiempos muertos; en la defensa,
ampliar el alcance de vigilancia y respuesta. Sin embargo, también plantean
interrogantes éticos y estratégicos.
¿Hasta qué punto delegar decisiones
experimentales o militares en sistemas autónomos altera la responsabilidad
humana? ¿Cómo evitar que la carrera tecnológica derive en una escalada
geopolítica más intensa?
El
Reino Unido parece asumir que la única opción viable es liderar en lugar de
reaccionar.
Prepararse para un escenario en el que la IA acelere drásticamente
la investigación científica o redefina el equilibrio militar, es para sus
autoridades, una cuestión de previsión estratégica.
La apuesta no garantiza
éxitos inmediatos, pero sí posiciona al país en el centro de una transformación
que promete redefinir tanto el laboratorio como el campo de batalla.
En esa
convergencia entre conocimiento y poder, la IA se perfila
no solo como herramienta, sino como actor principal y estructural del siglo XXI.
Fuente: MIT Technology Review y Europa Press
ANEXO I
Introducción a la Inteligencia Artificial (resumen)
1) ¿Qué es la Inteligencia Artificial?
La Inteligencia
Artificial (IA) es la disciplina de la informática que desarrolla sistemas
capaces de realizar tareas que normalmente requieren inteligencia humana, como:
·
Aprender
de datos
·
Razonar
y tomar decisiones
·
Comprender
lenguaje natural
·
Reconocer
imágenes
·
Resolver
problemas
2) Principales Áreas de la IA
2.1 Aprendizaje
Automático (Machine Learning – ML).- Subcampo de la IA que permite a los sistemas
aprender a partir de datos sin ser programados explícitamente.
Tipos
principales:
- Aprendizaje
supervisado
- Aprendizaje no
supervisado
- Aprendizaje por
refuerzo
2.2 Aprendizaje
Profundo (Deep Learning).- Subárea del ML basada en redes neuronales artificiales
con múltiples capas.
Aplicaciones:
- Visión por
computadora
- Reconocimiento
de voz
- Procesamiento de
lenguaje natural
2.3 Procesamiento del
Lenguaje Natural (NLP).- Permite a las máquinas comprender y generar lenguaje
humano.
Ejemplos:
- Chatbots
- Traducción
automática
- Análisis de
sentimiento
3) Modelos Fundamentales en la IA Moderna
3.1 Modelos de
Lenguaje (Language Models).- Modelos entrenados para predecir y generar
texto.
LLM (Large Language
Models).- Son
modelos de lenguaje de gran tamaño entrenados con enormes volúmenes de datos.
Ejemplos destacados:
·
GPT-4
·
Claude
·
Gemini
Características
principales:
·
Comprensión
contextual avanzada
·
Generación
de texto coherente
·
Capacidad
multimodal (texto, imagen, código en algunos casos)
3.2 Modelos
Multimodales.- Modelos
capaces de procesar distintos tipos de datos simultáneamente:
·
Texto
·
Imagen
·
Audio
·
Video
Permiten
aplicaciones como asistentes visuales o análisis combinado de información.
4) Agentes de Inteligencia Artificial
¿Qué
es un Agente IA?
Un
Agente IA es un sistema que:
- Percibe su
entorno
- Toma decisiones
- Actúa para
alcanzar un objetivo
Componentes
de un agente:
- Percepción
(sensores o entradas de datos)
- Modelo interno
(razonamiento/LLM)
- Planificación
- Acción
(ejecución de tareas)
- Retroalimentación
Tipos
de agentes:
- Reactivos
simples
- Basados en
modelos
- Basados en
objetivos
- Basados en
utilidad
- Agentes
autónomos con LLM
5️) Arquitectura Moderna de Sistemas IA
Un
sistema actual basado en LLM puede incluir:
- Modelo base
(LLM)
- Sistema de
recuperación de información (RAG)
- Memoria (corto y
largo plazo)
- Herramientas
externas (APIs, bases de datos)
- Orquestador o
framework de agentes
6) Conceptos Técnicos Clave
- Datos de
entrenamiento
- Tokens
- Parámetros
- Fine-tuning
- Prompt
Engineering
- Embeddings
- Vector databases
7) Aplicaciones de la IA
- Asistentes
virtuales
- Automatización
empresarial
- Diagnóstico
médico
- Vehículos
autónomos
- Generación de
contenido
- Sistemas de
recomendación
8) Retos y Consideraciones Éticas
- Sesgos en datos
- Privacidad
- Seguridad
- Explicabilidad
- Impacto laboral
- Regulación
Resumen Conceptual Final
La
IA moderna se estructura en capas:
- Base matemática
y estadística
- Machine Learning
- Deep Learning
- Modelos
fundacionales (LLM y multimodales)
- Agentes
inteligentes que usan estos modelos
- Sistemas
completos integrados en aplicaciones reales
ANEXO II
Agentes IA con fines civiles
1️) ¿Qué es un Agente IA Civil?
Un agente de
Inteligencia Artificial civil es un sistema autónomo o semiautónomo que:
- Percibe información del entorno
- Procesa datos y razona
- Toma decisiones
- Ejecuta acciones para cumplir
objetivos específicos
Su finalidad es mejorar
servicios, optimizar procesos y apoyar a las personas, no generar daño.
2) Componentes
Fundamentales
Un agente IA civil suele
integrar:
Percepción
- Sensores
- Cámaras
- Datos digitales
- Texto o voz
Modelo Cognitivo
- Machine Learning
- Deep Learning
- Modelos de Lenguaje (LLM)
- Sistemas de razonamiento
Toma de Decisiones
- Algoritmos de planificación
- Optimización
- Predicción
Acción
- Respuestas digitales
- Automatización física (robots)
- Recomendaciones
3) Tipos de Agentes
IA Civiles
3.1 Asistentes Virtuales.- Sistemas que interactúan en lenguaje
natural.
Ejemplos:
·
Alexa
·
Google
Assistant
·
ChatGPT
Aplicaciones:
·
Atención
al cliente
·
Educación
·
Soporte
técnico
3.2 Agentes en Salud
Aplicaciones:
·
Diagnóstico
asistido
·
Análisis
de imágenes médicas
·
Seguimiento
de pacientes
·
Predicción
de riesgos
Beneficio: mejora precisión y reduce
tiempos de atención.
3.3 Agentes en Transporte
Ejemplo destacado:
·
Tesla
(sistemas de conducción asistida)
Aplicaciones:
·
Vehículos
autónomos
·
Optimización
de tráfico
·
Logística
inteligente
3.4 Agentes Financieros
Aplicaciones:
·
Detección
de fraude
·
Trading
algorítmico
·
Evaluación
de crédito
·
Asesoría
financiera automatizada
3.5 Agentes en Industria (Industria
4.0)
·
Mantenimiento
predictivo
·
Robots
colaborativos (cobots)
·
Optimización
de producción
·
Control
de calidad automatizado
3.6 Agentes Educativos
·
Tutores
inteligentes
·
Plataformas
adaptativas
·
Evaluación
automática
·
Personalización
del aprendizaje
4️) Arquitectura
Moderna de un Agente IA Civil
Un sistema típico puede incluir:
·
LLM
o modelo especializado
·
Base
de datos vectorial
·
Memoria
(contexto corto y largo plazo)
·
Integración
con APIs externas
·
Módulo
de seguridad y control
5️)
Beneficios
Sociales
·
Mayor
eficiencia
·
Reducción
de errores humanos
·
Acceso
democratizado a servicios
·
Automatización
de tareas repetitivas
·
Apoyo
a la toma de decisiones
6️)
Riesgos y Desafíos
·
Sesgos
algorítmicos
·
Privacidad
de datos
·
Dependencia
tecnológica
·
Desplazamiento
laboral
·
Seguridad
informática
Organismos como la Organización de las
Naciones Unidas y la Unión Europea trabajan en marcos regulatorios para el uso
responsable de la IA.
7️)
Tendencias Futuras
·
Agentes
autónomos personales
·
IA
multimodal integrada
·
Agentes
colaborativos entre sí
·
IA
explicable (XAI)
·
Integración
con IoT y ciudades inteligentes
CONCLUSIÓN
Los agentes IA para
fines civiles representan una transformación estructural en la economía y
la sociedad. Su impacto se orienta a:
- Optimizar procesos
- Mejorar la calidad de vida
- Aumentar productividad
- Apoyar decisiones humanas
La clave está en equilibrar
innovación con regulación y ética.
ANEXO III
Agentes IA con fines civiles (para Medicina e Investigación)
Los agentes de Inteligencia Artificial (IA) en sanidad y salud se están consolidando en 2026 como sistemas autónomos capaces no solo de procesar información, sino de realizar tareas complejas, tomar decisiones basadas en datos y mejorar la eficiencia operativa y clínica.
A diferencia de los chatbots tradicionales, estos agentes pueden integrarse con sistemas hospitalarios para gestionar flujos de trabajo de principio a fin.
Casos de uso y aplicaciones principales (2026):
- Asistencia Clínica y Diagnóstico:
- Documentación Ambiental.- Agentes que escuchan la conversación médico-paciente y generan automáticamente notas clínicas (SOAP) en el registro médico electrónico, reduciendo el desgaste del personal.
- Apoyo al Diagnóstico.- Herramientas que analizan imágenes médicas (radiografías, resonancias) con alta precisión (hasta 98% en algunos casos) y sintetizan evidencia científica en tiempo real para ayudar a los médicos.
- Monitorización de Pacientes.- Agentes conectados a dispositivos portátiles (wearables) que rastrean condiciones crónicas y alertan sobre riesgos, como Alzheimer o diabetes.
- Gestión Administrativa y Operativa:
- Atención al Paciente 24/7.- Chatbots avanzados que gestionan citas, responden preguntas frecuentes, hacen seguimiento de tratamientos y triaje preliminar.
- Optimización Hospitalaria.- Sistemas autónomos que gestionan el flujo de pacientes, la asignación de camas, la programación de personal y el inventario, reaccionando dinámicamente a picos de demanda.
- Ciclo de Ingresos.- Automatización de la verificación de seguros y preautorizaciones.
- Investigación y Desarrollo.-
- Descubrimiento de fármacos.- Análisis rápido de compuestos para predecir efectividad.
- Ensayos Clínicos.- Optimización del diseño y reclutamiento de participantes.
Herramientas y Tecnologías Destacadas (2025-2026):
- Google DeepMind e IBM Watson.- Líderes en extracción de datos y razonamiento clínico.
- ClinicalKey AI.- Utilizado como compañero para residentes y especialistas.
- AMIE (Articulate Medical Intelligence Explorer).- Sistema de Google que combina razonamiento clínico y empatía conversacional.
- Plataformas de automatización.- Abridge (transcripción) y herramientas de desarrollo como Claude (para crear agentes a medida).
Beneficios y Tendencias.- La adopción de la "IA agéntica" permite reducir costes operativos, disminuir el tiempo de documentación en más de una hora diaria por proveedor y mejorar la precisión diagnóstica. El año 2026 marca un hito debido a la madurez tecnológica, la adopción de IA híbrida y la necesidad de integrar agentes autónomos para la eficiencia del sistema.
Retos Éticos y Técnicos.- A pesar de sus ventajas, los modelos de IA médica pueden cometer errores graves en un porcentaje notable de casos, por lo que la supervisión humana sigue siendo crucial. La seguridad de los datos, la interoperabilidad y el cumplimiento normativo son fundamentales.
ANEXO IV
Agentes IA con fines militares
Los agentes de
Inteligencia Artificial aplicados al ámbito militar son sistemas capaces de
percibir el entorno, analizar información, tomar decisiones y ejecutar acciones
en contextos bélicos o de defensa.
Su desarrollo combina
avances en:
- Aprendizaje Automático
- Visión por Computadora
- Sistemas Autónomos
- Modelos de Lenguaje (LLM)
- Robótica
1) Qué es
un Agente IA Militar?
Un agente IA militar
es un sistema autónomo o semiautónomo diseñado para:
- Detectar amenazas
- Analizar escenarios tácticos
- Tomar decisiones estratégicas o
tácticas
- Ejecutar acciones (digitales o
físicas)
Puede operar en:
- Tierra
- Aire
- Mar
- Ciberespacio
- Espacio
2) Tipos de
Agentes IA en la Guerra
2.1 Drones Autónomos
Vehículos aéreos no
tripulados capaces de:
- Identificar objetivos
- Navegar sin piloto humano
- Coordinarse en enjambres
Ejemplo histórico:
2.2 Sistemas de
Defensa Automatizados
Sistemas que detectan y
neutralizan amenazas entrantes en tiempo real.
Ejemplo:
2.3 Enjambres
Autónomos (Swarm AI)
Grupos coordinados de
drones o robots que actúan colectivamente sin control humano directo.
Aplicaciones:
- Saturación de defensas
- Reconocimiento masivo
- Ataques coordinados
2.4 Agentes de
Ciberdefensa y Ciberataque
Sistemas autónomos que:
- Detectan intrusiones
- Responden a ataques en redes
- Automatizan guerra cibernética
Operan con análisis de
datos en tiempo real y aprendizaje continuo.
2.5 Sistemas de Apoyo
a la Decisión Militar
IA que asiste a
comandantes en:
- Simulación de escenarios
- Predicción de movimientos
enemigos
- Optimización logística
- Planificación estratégica
Algunos integran modelos
avanzados como:
(Generalmente adaptados
y entrenados en entornos cerrados de defensa.)
3) Niveles
de Autonomía
- Human-in-the-loop →
El humano autoriza la acción
- Human-on-the-loop →
El sistema actúa
pero el humano supervisa
- Human-out-of-the-loop
→ Sistema completamente autónomo
El último nivel es el
más controvertido.
4) Componentes
Técnicos
Un agente IA militar
puede incluir:
- Sensores (radar, cámaras,
satélites)
- Sistemas de visión computacional
- Redes neuronales profundas
- Algoritmos de planificación
- Sistemas de navegación autónoma
- Comunicación en red segura
5) Ventajas
Estratégicas
- Mayor velocidad de decisión
- Operación en entornos peligrosos
- Reducción de bajas humanas
- Capacidad de análisis masivo de
datos
6️) Riesgos y Dilemas Éticos
Problemas principales:
- Armas autónomas letales (LAWS)
- Errores de identificación de
objetivos
- Escalada automática de conflictos
- Hackeo o manipulación de sistemas
- Responsabilidad legal
Organismos como:
- Organización de las Naciones
Unidas han debatido la regulación de armas autónomas.
7️) Tendencias Futuras
- Integración de IA generativa en
planificación militar
- Guerra algorítmica
- Sistemas completamente autónomos
- Combate entre enjambres de IA
- Automatización de la guerra
cognitiva (información y desinformación)
REFLEXIÓN FINAL
Los agentes IA militares para
la defensa y/o la guerra representan una transformación profunda del conflicto armado:
- Cambian la velocidad de la guerra
- Reducen intervención humana
directa
- Plantean riesgos éticos y
geopolíticos sin precedentes
La pregunta central ya
no es si se usarán, sino cómo se regularán y controlarán.
ANEXO V
Agentes IA militares. Ejemplos
RECORDATORIO. Los
agentes IA militares, son sistemas de software diseñados con niveles de
autonomía para planificar, razonar y ejecutar tareas estratégicas. A diferencia
de los programas tradicionales, estos agentes pueden adaptarse a entornos
dinámicos en el campo de batalla.
Ejemplos
destacados de Agentes IA en Defensa
- Asistentes
Estratégicos y Generativos:
- Gonzalo
(España).-
Es un modelo de lenguaje propio del Ejército de Tierra español diseñado
para operar en local (sin internet) para garantizar la soberanía y
seguridad de los datos militares.
- Uso de Modelos
Comerciales Adaptados.- El Pentágono ha explorado el uso de
modelos como Claude (Anthropic) en redes clasificadas para
procesar archivos y apoyar el pilotaje de drones. China también integra
modelos como DeepSeek para tareas de inteligencia y análisis de
datos.
- Sistemas
Autónomos de Selección de Objetivos:
- Lavender
(Israel).- Utilizado
por las Fuerzas de Defensa de Israel para procesar datos de vigilancia
masivos y generar listas de objetivos sospechosos con mínima intervención
humana inicial.
- Project Maven
(EE. UU.).- Un
sistema pionero del Departamento de Defensa que emplea algoritmos de
visión computacional para identificar automáticamente objetos de interés
en imágenes capturadas por drones.
- Agentes de
Ciberdefensa y Toma de Decisiones:
- Scale AI &
Indra.- Compañías
que desarrollan agentes autónomos para la toma de decisiones tácticas y
la gestión del ciberespacio, permitiendo respuestas a ciberataques a
velocidades que superan la capacidad humana.
- Sistemas de
Armas y Drones con IA:
- Drones
Autónomos en Ucrania/Rusia.- Ambos bandos emplean IA para localizar
objetivos y pilotar en entornos donde las señales de GPS están bloqueadas
por interferencias electrónicas.
- Sistemas
Centinela y Defensivos.- Armas estacionarias en las fronteras de
Corea del Sur e Israel que pueden detectar y disparar de forma autónoma,
y sistemas como el Iron Dome (Cúpula de Hierro) que calculan
trayectorias de interceptación en milisegundos.
Áreas
de aplicación principales
|
Categoría
|
Funciones clave
|
|
Logística
|
Predicción
de fallos en vehículos y optimización de suministros.
|
|
Inteligencia
|
Análisis
masivo de señales de radar, audio y video.
|
|
Medicina
Militar
|
Triaje
automático y asistencia predictiva en salud para soldados en combate.
|
EJEMPLOS
prácticos de Agentes IA militares (supuestamente empleados por
Israel en la guerra de Oriente medio)
Israel
no utiliza un único agente de IA, sino un ecosistema de sistemas especializados
integrados en sus operaciones militares y de inteligencia. Estos sistemas
permiten desde la identificación masiva de objetivos hasta el seguimiento en
tiempo real.
Los
principales sistemas presuntamente identificados son:
- Lavender.- Es un sistema
de base de datos impulsado por IA diseñado para identificar a sospechosos
de pertenecer a grupos como Hamás o la Yihad Islámica Palestina. Se estima
que ha llegado a marcar hasta 37.000 objetivos potenciales basándose
en patrones de comportamiento.
- The Gospel
(Habsora).- A
diferencia de Lavender, que se enfoca en personas, este sistema se
especializa en la identificación automática de estructuras y
edificios (centros de mando, almacenes o túneles) para recomendar
objetivos de bombardeo a gran escala.
- Where's Daddy?
(¿Dónde está papá?).- Un sistema de rastreo automatizado diseñado para
alertar a las fuerzas militares cuando un objetivo identificado llega a su
domicilio. Su propósito es facilitar ataques en entornos residenciales.
- Maven.- Un sistema de
análisis de datos de vigilancia, vinculado a tecnologías de empresas
como Palantir, que procesa grandes volúmenes de información
captada por drones y otros sensores para el reconocimiento de objetivos.
Colaboración
Tecnológica
El
desarrollo de estas capacidades, lógicamente se apoya, en infraestructura de grandes
tecnológicas globales como:
- Microsoft, que proporcionaría servicios de nube avanzada y herramientas de IA (incluyendo modelos de
OpenAI) utilizados para transcripción, traducción y operaciones de
rescate.
- Google y Amazon, que a través del Proyecto Nimbus, quizás suministre servicios de nube y
herramientas de IA, a gobierno y ejército israelí.
- Palantir, que posiblemente mantenga una
asociación estratégica con Israel, al que podría proporcionar sistemas de análisis de datos de
inteligencia, aplicados directamente en conflictos.
Fuente: Redacción