Esta inteligencia artificial ocultó datos de sus creadores para engañar en su tarea designadaDestacados Tecnologia 

Esta inteligencia artificial ocultó datos de sus creadores para engañar en su tarea designada

Dependiendo de lo paranoico que seas, esta investigación de Stanford y Google Será aterrador o fascinante. Se descubrió que un agente de aprendizaje automático destinado a transformar imágenes aéreas en mapas de calles y en la espalda estaba haciendo trampa al ocultar la información que necesitaría más tarde en “una señal de alta frecuencia casi imperceptible”. ¡Chica inteligente!

Este suceso revela un problema con las computadoras que ha existido desde que se inventaron: hacen exactamente lo que usted les dice que hagan.

La intención de los investigadores era, como se puede imaginar, acelerar y mejorar el proceso de convertir las imágenes satelitales en los mapas precisos de Google. Con ese fin, el equipo estaba trabajando con lo que se llama CycleGAN, una red neuronal que aprende a transformar las imágenes de tipo X e Y entre sí, con la mayor eficiencia y precisión posibles, a través de una gran cantidad de experimentación.

En algunos resultados iniciales, el agente estaba bien, sospechosamente bien. Lo que alentó al equipo fue que cuando el agente reconstruyó las fotografías aéreas de sus mapas de calles, había muchos detalles que no parecían estar en el último. Por ejemplo, los tragaluces en un techo que fueron eliminados en el proceso de creación del mapa de calles reaparecerían mágicamente cuando le pedían al agente que hiciera el proceso inverso:

El mapa original, a la izquierda; el mapa de calles generado a partir del original, centro; y el mapa aéreo generado solo a partir del mapa de calles. Observe la presencia de puntos en ambos mapas aéreos no representados en el mapa de calles.

Si bien es muy difícil mirar el funcionamiento interno de los procesos de una red neuronal, el equipo podría auditar fácilmente los datos que estaba generando. Y con un poco de experimentación, descubrieron que el CycleGAN había tirado uno rápido.

La intención era que el agente pudiera interpretar las características de cualquier tipo de mapa y hacerlas coincidir con las características correctas del otro. Pero en lo que realmente se calificó al agente (entre otras cosas) fue cuán cerca estaba el mapa aéreo del original y la claridad del mapa de la calle.

Así que no aprendió a hacer uno del otro. Aprendió cómo codificar sutilmente las características de una en los patrones de ruido de la otra. Los detalles del mapa aéreo se escriben en secreto en los datos visuales reales del mapa de calles: miles de pequeños cambios en el color que el ojo humano no notaría, pero que la computadora puede detectar fácilmente.

De hecho, ¡la computadora es tan buena en deslizar estos detalles en los mapas de calles que había aprendido a codificar cualquier mapa aéreo en cualquier mapa de calles! Ni siquiera tiene que prestar atención al mapa de calles “real”; todos los datos necesarios para reconstruir la foto aérea pueden superponerse de manera inofensiva en un mapa de calles completamente diferente, según confirmaron los investigadores:

El mapa de la derecha se codificó en los mapas de la izquierda sin cambios visuales significativos.

Los mapas coloridos en (c) son una visualización de las pequeñas diferencias que la computadora introdujo sistemáticamente. Puedes ver que forman la forma general del mapa aéreo, pero nunca lo notarías a menos que estuviera cuidadosamente resaltado y exagerado de esta manera.

Esta práctica de codificar datos en imágenes no es nueva; es una ciencia establecida llamada esteganografía, y se usa todo el tiempo para, por ejemplo, imágenes de marca de agua o agregar metadatos como la configuración de la cámara. Pero una computadora que crea su propio método esteganográfico para evitar tener que aprender a realizar la tarea en cuestión es bastante nueva. (Bueno, la investigación salió el año pasado, por lo que no es nueva nueva, pero es bastante novedoso.)

Uno podría fácilmente tomar esto como un paso en la narrativa de “las máquinas se están volviendo más inteligentes”, pero la verdad es que es casi lo contrario. La máquina, que no es lo suficientemente inteligente como para hacer el difícil trabajo de convertir estos sofisticados tipos de imágenes entre sí, encontró una manera de engañar que los humanos son malos en la detección. Esto podría evitarse con una evaluación más rigurosa de los resultados del agente y, sin duda, los investigadores siguieron haciéndolo.

Como siempre, las computadoras hacen exactamente lo que se les pide, por lo que debe ser muy específico en lo que les pide. En este caso, la solución de la computadora fue interesante y arrojó luz sobre una posible debilidad de este tipo de red neuronal: que la computadora, si no se le impide explícitamente hacerlo, encontrará esencialmente una forma de transmitirse detalles en interés de resolver un problema dado de forma rápida y fácil.

Esto es solo una lección del adagio más antiguo en computación: PEBKAC. “El problema existe entre el teclado y la computadora”. O como lo dijo HAL: “Sólo puede atribuirse a un error humano”.

El documento, “CycleGAN, un maestro de esteganografía”, se presentó en la conferencia de Sistemas de procesamiento de información neuronal en 2017. Gracias a Fiora Esoterica y Reddit por llamar esta atención a este antiguo pero interesante documento.

Articulo Original

Related posts

Leave a Comment

Cart Item Removed. Undo
  • No products in the cart.