7 de septiembre de 2018

Los Estados crearán auditores de inteligencia artificial

Quédense con este concepto: auditor del algoritmo. En poco tiempo irrumpirán nuevos perfiles profesionales relacionados con la supervisión de la inteligencia artificial que comienza a mover el mundo. Alguien con representatividad pública tendrá que velar para que las líneas de código de computación propicien actuaciones éticas y responsables. En breve irrumpirán entidades de certificación que fomentarán la transparencia y las buenas prácticas en las grandes empresas y administraciones sobre todo lo relacionado con los protocolos automatizados.
Igual que existe un supervisor bursátil (CNMV) y otro que garantiza la sana competencia y el correcto funcionamiento en el mercado (CNMC), no sería descabellado que surgiera otro organismo independiente capaz de vigilar el devenir de la toma de decisiones basado en los datos. La Humanidad tiene mucho en juego y la sostenibilidad de su futuro no debería quedar al arbitrio alegre de un inteligencia artificial sin domesticar.
Dicho lo dicho, pueden apostar a que ganarán relevancia las compañías capaces de acreditar la gestión respetuosa de sus sistemas automatizados. Los dilemas morales surgirán cada segundo y quizá convenga construir un futuro mejor, no siempre regido por principios utilitaristas. Los efectos colaterales de las decisiones de los robots también deben ponderarse bajo un prisma humano, una vez asumido que los robots deberán estar aleccionados para afrontar situaciones críticas. Y no es ciencia ficción.
La programación de IA conlleva dilemas morales en casos de vida o muerte
Los coches autónomos que en breve circularán por nuestras calles consideran de absoluta prioridad la protección de la seguridad e integridad de sus tripulantes, aunque esa regla pueda suponer un riesgo para terceros. Por ejemplo, en el caso de que un peatón asalte de forma repentina la carretera, el vehículo autoconducido que circule por allí podría dar un volantazo a riesgo de atropellar a viandantes o colisionar con otros vehículos antes que chocar contra un muro o caer por un precipicio. ¿Cómo tiene que programarse la máquina para que actúe de forma responsable?
O el tren sin conductor que debe saber cómo reaccionar en casos de emergencia o accidente, mediante maniobras que podrían cuestionarse desde la óptica estrictamente humana. En esos episodios cobra vigencia el célebre dilema del tranvía, en el que una inteligencia (artificial o natural) debe elegir entre sacrificar la vida de una persona para no condenar a cinco.
En capacidad de proceso deja de ser de un problema y la IA ascenderá de nivel
Quizá sea pronto para temer a las máquinas equipadas con un raciocinio emocional, pero no lo es para huir de los robots que a diario tocan la fibra sensible de los usuarios para invitarles a comprar determinados productos o votar a ciertos políticos. También es conocido que existen hackers con sobrada habilidad para acceder a bases de datos de electores que luego se aprovechan con objetivos espurios.
La materia prima de la inteligencia artificial son los datos y los Google, Facebook, Amazon, Apple o Baidu se han percatado de que información y riqueza son términos sinónimos si por medio existe una analítica capaz de convertirlo en valor. Acumular esos insights es la estrategia de éxito. Y lo será mucho más cuando las economías de escala permitan que los ordenadores cuánticos puedan hacer de las suyas en los próximos años. En cuanto la capacidad de proceso deje de ser de un problema, la inteligencia artificial ascenderá de nivel.
En el '32 Encuentro de la Economía Digital y las Telecomunicaciones', que hoy clausura Ametic en Santander, se ha debatido en profundidad sobre el impacto de la inteligencia artificial en las personas, empresas y administraciones públicas. En ese foro resultó especialmente brillante la intervención de Enrique Serrano, director general de Tinamica y vicepresidente de la Comisión de Inteligencia Artificial y Big Data de Ametic. Este experto tiene claro que la figura del auditor del algoritmo resultará imprescindible en los próximos años para así preservar la deontología en la inteligencia artificial. Lo dicho, quédense con este concepto.
Fuente: El Economista.es