Quédense con este
concepto: auditor del algoritmo. En poco tiempo irrumpirán nuevos perfiles
profesionales relacionados con la supervisión de la inteligencia artificial que
comienza a mover el mundo. Alguien con representatividad pública tendrá que
velar para que las líneas de código de computación propicien actuaciones éticas
y responsables. En breve irrumpirán entidades de certificación que fomentarán
la transparencia y las buenas prácticas en las grandes empresas y
administraciones sobre todo lo relacionado con los protocolos automatizados.
Igual que existe un
supervisor bursátil (CNMV) y otro que garantiza la sana competencia y el
correcto funcionamiento en el mercado (CNMC), no sería descabellado que
surgiera otro organismo independiente capaz de vigilar el devenir de la toma de
decisiones basado en los datos. La Humanidad tiene mucho en juego y la
sostenibilidad de su futuro no debería quedar al arbitrio alegre de un
inteligencia artificial sin domesticar.
Dicho lo dicho,
pueden apostar a que ganarán relevancia las compañías capaces de acreditar la
gestión respetuosa de sus sistemas automatizados. Los dilemas morales surgirán
cada segundo y quizá convenga construir un futuro mejor, no siempre regido por
principios utilitaristas. Los efectos colaterales de las decisiones de los
robots también deben ponderarse bajo un prisma humano, una vez asumido que los
robots deberán estar aleccionados para afrontar situaciones críticas. Y no es
ciencia ficción.
La
programación de IA conlleva dilemas morales en casos de vida o muerte
Los coches autónomos
que en breve circularán por nuestras calles consideran de absoluta prioridad la
protección de la seguridad e integridad de sus tripulantes, aunque esa regla
pueda suponer un riesgo para terceros. Por ejemplo, en el caso de que un peatón
asalte de forma repentina la carretera, el vehículo autoconducido que circule
por allí podría dar un volantazo a riesgo de atropellar a viandantes o
colisionar con otros vehículos antes que chocar contra un muro o caer por un
precipicio. ¿Cómo tiene que programarse la máquina para que actúe de forma
responsable?
O el tren sin
conductor que debe saber cómo reaccionar en casos de emergencia o accidente,
mediante maniobras que podrían cuestionarse desde la óptica estrictamente
humana. En esos episodios cobra vigencia el célebre dilema del tranvía, en el
que una inteligencia (artificial o natural) debe elegir entre sacrificar la
vida de una persona para no condenar a cinco.
En capacidad de proceso deja de ser de un
problema y la IA ascenderá de nivel
Quizá sea pronto para
temer a las máquinas equipadas con un raciocinio emocional, pero no lo es para
huir de los robots que a diario tocan la fibra sensible de los usuarios para
invitarles a comprar determinados productos o votar a ciertos políticos.
También es conocido que existen hackers con sobrada habilidad para acceder a
bases de datos de electores que luego se aprovechan con objetivos espurios.
La materia prima de
la inteligencia artificial son los datos y los Google, Facebook, Amazon, Apple
o Baidu se han percatado de que información y riqueza son términos sinónimos si
por medio existe una analítica capaz de convertirlo en valor. Acumular esos
insights es la estrategia de éxito. Y lo será mucho más cuando las economías de
escala permitan que los ordenadores cuánticos puedan hacer de las suyas en los
próximos años. En cuanto la capacidad de proceso deje de ser de un problema, la
inteligencia artificial ascenderá de nivel.
En el '32 Encuentro
de la Economía Digital y las Telecomunicaciones', que hoy clausura Ametic en
Santander, se ha debatido en profundidad sobre el impacto de la inteligencia
artificial en las personas, empresas y administraciones públicas. En ese foro
resultó especialmente brillante la intervención de Enrique Serrano, director
general de Tinamica y vicepresidente de la Comisión de Inteligencia Artificial
y Big Data de Ametic. Este experto tiene claro que la figura del auditor del
algoritmo resultará imprescindible en los próximos años para así preservar la
deontología en la inteligencia artificial. Lo dicho, quédense con este
concepto.
Fuente: El
Economista.es