Inicio » Cuáles son los delitos más peligrosos que generará el desarrollo de la inteligencia artificial
PLAN 2030

Cuáles son los delitos más peligrosos que generará el desarrollo de la inteligencia artificial

A medida que el desarrollo tecnológico evoluciona también crecen las amenazas vinculadas a él.

Científicos de la University College de Londres (UCL) han elaborado un informe en el que analizan los delitos más graves que el avance de la inteligencia artificial pueden generar en los próximos 15 años.

El listado de posibles amenazas ha sido examinado por una serie de especialistas que discutieron sobre la amenaza real que suponen cada uno de ellos para la sociedad futura.

Para ello se pidió al comité de participantes expertos que clasificaran cada uno de los delitos analizados en función de cuatro criterios: el daño que pueden causar, potencial de lucro, facilidad con la que podrían llevarse a cabo y la dificultad para poder detenerlo.

«A diferencia de muchos delitos tradicionales, los delitos en el ámbito digital pueden compartirse, repetirse e incluso comercializarse fácilmente, lo que permite comercializar técnicas delictivas y proporcionar delitos como un servicio», subraya el investigador Matthew Caldwell, principal autor del informe.

El resultado del listado puede sorprender. Los robots asesinos están más lejos de lo que podría pensarse de ser la mayor amenaza que la inteligencia artificial puede deparar al mundo del mañana.

Frente a esto, la creación de contenido falso se erige como el mayor delito que cabe esperarse derivado del avance de esta tecnología. Los ejemplos hasta ahora conocidos de los llamados deepfakes, ayudan a hacerse una idea del potencial dañino que estos vídeos falsos pueden tener, haciendo que las personas incluso deban empezar a desconfiar de lo que ven y escuchan por los medios y la red.

A continuación se enumeran los 20 delitos más peligrosos que creará la inteligencia artificial en los próximos años, según el estudio y colocados de menor a mayor gravedad.

 

 

Falsificación de contenido

La amenaza menos preocupante que generará la IA en los próximos años será la creación de contenido falso en ámbitos como el arte o la música que pueda ser posteriormente vendido bajo falsas pretensiones en cuanto a su autoría. Este delito ocupa el puesto más bajo de la lista en cuanto a los daños que puede ocasionar así como por sus probabilidades de éxito.

Como detalla el informe, si bien la inteligencia artificial ha mostrado capacidades para emular el estilo visual de creadores como grandes pintores, esta podría verse ampliamente limitada a la hora de abordar la creación de un objeto físico real. Por otro lado, las casas de subastas, galerías y especialistas llevan siglos luchando contra las falsificaciones, por lo que es un campo en el que cabe esperar que cuenten con prácticas defensivas adecuadas.

Acoso ayudado por inteligencia artificial

Por tal debe entenderse el uso de sistemas de aprendizaje capaces de monitorizar la actividad y la ubicación de un individuo a través de las redes sociales o los datos disponibles en sus dispositivos móviles.

Asimismo, el estudio también engloba aquí la provisión por parte de tecnológicas de aplicaciones capaces de hacer cumplir las normas sociales en sociedades represivas.

Si bien estos delitos pueden ser realmente dañinos, el informe considera que al tratarse de acciones sobre individuos no supondrían un alcance significativo a gran escala.

 

 

 Reseñas falsas creadas por IA

Esta capacidad de generar de manera automática reseñas falsas podría utilizarse en espacios muy basados en la opinión de los usuarios, como Amazon o TripAdvisor, para ofrecer falsas impresiones sobre un producto con la intención de promoverlo o alejarlo del interés de los clientes.

Una práctica deshonesta que hoy en día ya es realizada por actores humanos.

Tecnología para eludir la detección de la inteligencia artificial

A medida que los asuntos policiales y de seguridad vayan dependiendo más de la inteligencia artificial y la automatización de los datos en los procesos de investigación, cabe esperar que aumenten los ataques en los que se busque eludir esta tecnología frustrando posibles descubrimientos o incluso que permitan el borrado de pruebas.

Bots ladrones

El desarrollo de la tecnología puede permitir la creación de pequeños robots autónomos capaces de introducirse en casas y otras instalaciones por espacios como buzones para recuperar llaves o abrir puertas y permitir que ladrones humanos entren para llevar a cabo un robo.

El estudio lo cataloga como un delito de baja amenaza ya que se trataría de robos a muy pequeña escala y que podrían detenerse fácilmente a través de dispositivos que impidan la entrada del robot por el buzón.

Explotación de sesgos

Descubrir los sesgos aprendidos de algoritmos influyentes o muy utilizados podría llevar a aprovechar esto en beneficio de intereses concretos.

La investigación indica como ejemplos las clasificaciones de Google donde poder poner en desventaja a los competidores o las recomendaciones de YouTube encaminadas a impactar en los espectadores más idóneos. Algo que de manera no legal ya se pone en práctica a través de técnicas por ejemplo de SEO, pero que el desarrollo de la IA podría potenciar en extremo.