Tecnologia Jueves, 22 de febrero de 2018

El "uso indebido" de IA abre la puerta a amenazas impensadas

El avance "a un ritmo sin precedentes" en el desarrollo de inteligencia artificial (IA) encierra junto a sus aplicaciones beneficiosas una nueva serie de riesgos vinculados a su "uso malicioso", que van desde la disrupción política a hackeos automatizados y hasta ataques físicos, advirtió una investigación internacional.

El informe titulado "El uso malicioso de la Inteligencia Artificial: Predicción, Prevención y Mitigación" fue elaborado por un grupo de 26 especialistas, entre ellos investigadores las universidades de Oxford y de Cambridge, de la industria tecnológica y de organizaciones civiles, quienes llamaron la atención sobre la existencia de "un vacío en la literatura sobre el tema del uso malicioso" de la IA.

Para los especialistas, los riesgos de esta "tecnología de doble uso" podrían materializarse durante los próximos cinco años en ataques a gran escala, altamente dirigidos y muy eficientes, tanto en el mundo virtual como en el real.

"A medida que el potencial de la IA se vuelve cada vez más poderoso y generalizado, consideramos que el uso creciente de los sistemas de inteligencia artificial conduzca a la expansión de las amenazas existentes, la introducción de nuevas amenazas y un cambio la naturaleza típica de las amenazas", advierte el estudio.

Hoy en día las distintas ramas de la IA se usan para automatizar -y potenciar el alcance de- tareas que tradicionalmente requirieron de la inteligencia humana, como el reconocimiento de voz, la traducción de textos o los motores de búsqueda.

Asimismo, abren un campo que promete avances impensados pocos años antes en areas diversas, como la medicina o el transporte, desde la existencia de coches autónomos (sin chofer) hasta la posibilidad de diagnosticar enfermedades cardíacas con observar el ojo de un paciente.

Pero, según el informe, estos avances también podrían usarse para automatizar el descubrimiento de vulnerabilidades de software críticas o para seleccionar de forma rápida a víctimas potenciales de delitos financieros.

Incluso podría emplearse para abusar del "perfil algorítmico al estilo Facebook", al crear ataques de "ingeniería social" diseñados para maximizar la probabilidad de que una persona haga un click en un enlace malicioso o descargue un archivo adjunto infectado, señala el estudio.

Más aún, continúa, el mundo físico también es vulnerable al "uso malicioso" de la IA.

Entre los ejemplos que propone destaca la posibilidad de crear "enjambres de drones", equiparlos con pequeños explosivos y tecnología de autocontrol y luego liberarlos para llevar a cabo asesinatos imposibles de rastrear.

También, argumenta el texto, es posible una disrupción política con escenarios en los que los Estados nación pueden usar plataformas de vigilancia automatizadas para reprimir la disidencia.

Esto podría montarse sobre "campañas de desinformación automatizadas e hiper-personalizadas", dirigidas a cada votante individual con un conjunto de mentiras diseñadas para influir en su comportamiento.

O la inteligencia artificial podría simplemente ejecutar "ataques de denegación de información", generando tantas noticias falsas convincentes al punto que la información legítima se vuelve casi imposible de discernir.

Ante este panorama, los autores de este trabajo proponen una serie de "recomendaciones de alto nivel".

Entre ellas, que los responsables políticos colaboren de forma estrecha con especialistas técnicos para investigar, prevenir y mitigar posibles usos maliciosos de la IA, cuyos investigadores e ingenieros deben tomar de forma seria la naturaleza de doble uso de su trabajo.

Y recomiendan además identificar las áreas de investigación con métodos más maduros para abordar problemáticas de doble uso, como la seguridad informática, y darle importancia cuando corresponda al caso de la inteligencia artificial.

Dejanos tu comentario