La Inteligencia Artificial se previene de engaños

Algunas tecnologías Intel potencian ya muchos de los casos de uso de Inteligencia Artificial (IA) más prometedores en los negocios, la sociedad y la investigación. De una nube masiva a un dispositivo pequeño, los ingenieros convierten la promesa de un modelo de IA transformador en una realidad a escala global. Pero en muchos casos la IA es aún un niño que debe aprender mucho de la realidad y advertir que las apariencias pueden engañar.


En esa línea la corporación Intel y el Instituto Tecnológico de Georgia (Georgia Tech) anunciaron que fueron seleccionados para dirigir un equipo del programa Garantizando la Robustez de la Inteligencia Artificial (IA) contra el Engaño (GARD) para la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA).

Miembros de Intel Labs muestran un ejemplo de cómo la Inteligencia Artificial se confunde con
una remera contradictoria. (Crédito: Intel Corporation).

Intel es el principal contratista en esta labor conjunta que tiene un costo multimillonario (dólares américanos) y una duración de cuatro años para mejorar las defensas de ciberseguridad contra los ataques de engaño en los modelos de Machine Learning.

“Intel y Georgia Tech están trabajando juntos para avanzar en la comprensión colectiva del ecosistema y en la capacidad de mitigación contra las vulnerabilidades de la Inteligencia Artificial y el Machine Learning. Mediante la investigación innovadora en técnicas de coherencia estamos colaborando en un enfoque para mejorar la detección de objetos y mejorar la capacidad de la Inteligencia Artificial y el Machine Learning para actuar ante los ataques adversos”, señala Jason Martin, ingeniero principal de Intel Labs e investigador principal para el programa DARPA GARD de Intel

Por qué es importante: Aun cuando son poco frecuentes, los ataques adversos intentan engañar, alterar o corromper la interpretación de datos del algoritmo de Machine Learning. Como los modelos de IA y Machine Learning son incorporados cada vez más en los sistemas semiautónomos y autónomos, es fundamental mejorar continuamente la estabilidad, seguridad y protección de interacciones inesperadas o engañosas. Por ejemplo, las clasificaciones e interpretaciones erróneas de la Inteligencia Artificial en cuanto a pixeles podrían dar lugar a una mala interpretación de las imágenes y escenarios de identificación incorrectos, o las modificaciones sutiles a los objetos del mundo real podrían confundir a los sistemas de percepción de la IA.

El programa GARD ayudará a que las tecnologías de Inteligencia Artificial y Machine Learning estén mejor equipadas para defenderse contra posibles ataques futuros.

Los detalles: Los esfuerzos de defensa actuales están diseñados para proteger contra ataques adversos específicos y predefinidos, pero siguen siendo vulnerables a los ataques cuando son puestos a prueba fuera de sus parámetros de diseño específicos. GARD pretende plantear la defensa del Machine Learning de forma diferente: desarrollando defensas amplias que aborden los numerosos ataques posibles en escenarios tales que podrían hacer que un modelo de AA clasifique o interprete mal los News Byte datos. Debido a su amplia huella arquitectónica y liderazgo en seguridad Intel se encuentra en una posición única para ayudar a impulsar innovaciones en la tecnología de Inteligencia Artificial y Machine Learning con una participación significativa en el resultado.

La meta del programa GARD es establecer fundamentos teóricos del sistema de Machine Learning que no solo identifiquen las vulnerabilidades del sistema y caractericen las propiedades para mejorar la robustez del sistema, sino que también promuevan la creación de defensas efectivas. A través de estos elementos del programa, GARD tiene el objetivo de crear tecnologías de Machine Learning resistentes al engaño con estrictos criterios para evaluar su eficacia.

Lo que sigue: En la primera etapa del programa GARD, Intel y Georgia Tech están mejorando las tecnologías de detección de objetos a través de la coherencia espacial, temporal y semántica, tanto para imágenes fijas como para videos. Intel está comprometida a impulsar la innovación de la IA y el AA y considera que trabajar con investigadores de seguridad calificados de todo el mundo es una parte crucial para abordar las vulnerabilidades de seguridad potenciales para la industria en general y nuestros clientes.

Tags: , , ,

Agencia
27 abril, 2020

Las 4 tendencias para 2021 en Inteligencia Artificial y Automatización

A poco tiempo de finalizar un año lleno de desafíos, los líderes empresariales ya evalúan estrategias y tácticas para …

Seguir leyendo //

Intel alimenta el primer satélite con Inteligencia Artificial a bordo

La inteligencia artificial, se convirtió en algo tan omnipresente en la vida moderna que implica desde aumentar nuestra comprensión …

Seguir leyendo //

Más de un 70% de empresas tuvieron que comprar equipos para sostener su operación

Más de un 70% de empresas tuvieron que comprar equipos para sostener su operación durante la cuarentena Cómo repercutió …

Seguir leyendo //

Intel sella alianza eSport con New Indians, el equipo del basquetbolista Fabricio Oberto

Intel sella alianza eSport con New Indians, el equipo del gran basquetbolista Fabricio Oberto Esta nueva alianza impulsará la …

Seguir leyendo //