Las máquinas basadas en inteligencia artificial pueden ser engañadas, advierten los investigadores de IISc, Technology News, ETtech

Los algoritmos de aprendizaje automático e inteligencia artificial utilizados en aplicaciones sofisticadas como los autos autónomos no son infalibles y se pueden manipular fácilmente introduciendo errores, investigadores del Indian Institute of Science ( IISc ) han advertido.

Los programas de aprendizaje automático e inteligencia artificial se entrenan con conjuntos iniciales de datos como imágenes de gatos y aprende a identificar imágenes felinas como más. los datos son alimentados Un ejemplo común es que Google está obteniendo mejores resultados a medida que más personas buscan la misma información.

El uso de aplicaciones de AI se está convirtiendo en una práctica generalizada en áreas como la atención médica, el procesamiento de pagos, el despliegue de drones para monitorear multitudes y el reconocimiento facial en oficinas y aeropuertos.

“Si su entrada de datos no es clara y está verificada, la máquina de AI podría arrojar resultados sorprendentes y eso podría resultar peligroso. En la conducción autónoma, el motor de AI debe estar debidamente capacitado en todas las señales de tráfico. “Si el signo de entrada es diferente, podría cambiar el curso del vehículo, lo que provocaría una catástrofe”, dijo a Ven el Sr. Venkatesha Babu, profesor asociado del Departamento de Ciencias Computacionales de IISc.

“El sistema también debe tener suficientes medidas de seguridad cibernética para evitar que los piratas informáticos invadan y alteren las entradas”, dijo.

Babu y sus estudiantes Konda Reddy Mopuri y Aditya Ganesan, en un artículo publicado en la prestigiosa Trans. El análisis de patrones y la inteligencia de la máquina de IEEE, han demostrado cómo los errores introducidos en los algoritmos de aprendizaje automático pueden arrojar resultados variados, como el camaleón africano para un misil y una manzana para un plátano.

Han compartido su algoritmo en código abierto La plataforma Github para que otros trabajen e improvisen el software.

Se necesita más trabajo sobre la inteligencia artificial

Los analistas dicen que la investigación arroja luz sobre la “exageración de la inteligencia artificial” y que se necesita más trabajo para mejorar su eficiencia y seguridad .

“Si las tecnologías se pueden confundir tan fácilmente, estamos en problemas. Es como tener computadoras que pueden ser hackeadas fácilmente; las primeras generaciones prácticamente no tenían seguridad “, dijo Vivek Wadhwa, un Distinguido miembro de la Facultad de Ingeniería de Carnegie Mellon University . “La gran preocupación aquí es que las primeras computadoras fueron utilizadas por un grupo muy pequeño y selecto de técnicos, mientras que los sistemas de AI se están implementando a escala global y llegan a los consumidores directamente”.

India está dando pequeños pasos para desarrollar capacidades en AI, un campo dominado por Estados Unidos y China. En China, el gobierno ha invertido en inteligencia artificial y ha construido modelos utilizando datos de ciudadanos. Las empresas chinas de internet como Tencent y Baidu tienen prácticas sólidas de inteligencia artificial basadas en datos de sus usuarios.

“Los líderes empresariales y los responsables de la formulación de políticas compran la exageración que las empresas como Google están creando y desean tener AI en todas partes. Pero aún queda mucho trabajo por hacer y no debemos confiar en un sistema solo porque sus desarrolladores dicen que tiene IA “, dijo Wadhwa.

V Vinay, ex profesor de informática en IISc y cofundador de Ati Motors, una startup de vehículos de carga autónomos, dijo que hay un verdadero desafío cuando se trata de algoritmos de aprendizaje profundo, donde no es fácil explicar por qué un software falló o tuvo éxito.

“Llevamos a las máquinas a un estándar más alto” dijo Vinay. “Los algoritmos de aprendizaje profundo carecen de explicadores: cuando funciona, no sabemos por qué funciona; cuando no funciona, no sabemos por qué. Nuestra incapacidad para analizar el fallo es un problema.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *