Norman es un algoritmo entrenado para comprender las imágenes pero, como su homónimo Norman Bates de Hitchcock, no tiene una visión optimista del mundo. Se trata de la primer Inteligencia Artificial Psicópata del mundo, y fue creada por el Instituto Tecnológico de Massachusetts (MIT) en EE.UU.

Cuando se le pregunta a un algoritmo “normal” generado por inteligencia artificial qué es lo que ve en una forma abstracta, elige algo alegre: “Un grupo de pájaros que se sientan en lo alto de una rama de un árbol”. Norman ve a unhombre siendo electrocutado.

Y donde la IA “normal” ve a un par de personas paradas una al lado de la otra, Norman ve a un hombre que salta desde una ventana.

El algoritmo psicopático fue creado por un equipo del Instituto de Tecnología de Massachusetts, como parte de un experimento para ver qué haría AI sobre los datos de “las esquinas oscuras de la red”.

El software mostró imágenes de personas muriendo en circunstancias espantosas, seleccionadas de un grupo en el sitio web Reddit.

Luego, la IA, que puede interpretar imágenes y describir lo que ve en forma de texto, por lo cual se le mostraron dibujos con manchas de tinta y se le preguntó qué veía en ellos.

Estas imágenes abstractas son tradicionalmente utilizadas por los psicólogos para ayudar a evaluar el estado de la mente de un paciente, en particular si perciben el mundo en una contexto negativo o positivo.

Junto a Norman, otra IA fue entrenada en imágenes más normales de gatos, pájaros y personas. Dicha IA, describió imágenes mucho más alegres en las mismas manchas abstractas.

El hecho de que las respuestas de Norman fueran mucho más oscuras, ilustra una dura realidad en el nuevo mundo del aprendizaje automático, dijo el profesor Iyad Rahwan, parte del equipo de tres personas del Media Lab del MIT que desarrolló Norman.

“Los datos importan más que el algoritmo. Resalta la idea de que los datos que utilizamos para entrenar a AI, se reflejan en la forma en que la inteligencia artificial percibe el mundo y cómo se comporta”.

La vista de Norman era incesantemente desoladora: veía cadáveres, sangre y destrucción en cada imagen.

Mientras que su contraparte, la Inteligencia Artificial entrenada con imágenes más normales, vio escenarios mucho más alegres en las mismas manchas abstractas.

La inteligencia artificial nos rodea en estos días: Google recientemente mostró una IA haciendo una llamada telefónica con una voz prácticamente indistinguible de la humana, mientras que la firma del mismo tipo, Deepmind, ha creado algoritmos que pueden enseñar a sí mismos a jugar juegos complejos.

Y la IA ya se está implementando en una amplia variedad de industrias, desde asistentes digitales personales, filtrado de correos electrónicos, búsqueda, prevención de fraude, reconocimiento facial y de voz y clasificación de contenido.

Si hay algo que está demostrando esta incursión del MIT en el comportamiento ciber-psicológico negativo de una IA, es que las respuestas están basadas por supuesto en su entrenamiento. Por ello si en la creación del algoritmo y su entrenamiento se alimenta de manera negativa sus respuestas serán de la misma naturaleza.

Hay muchos ejemplos, como la IA de twitter que fue “apagada” ya que respondía de forma racista.

Debemos aprender que no es la máquina en si la que está fallando, sino la perfectibilidad humana, que no importa cuán imparciales queramos ser, siempre habrá en el fondo algún indicio de parcialidad y eso repercutirá necesariamente en los algoritmos de IA que se vayan creando.

Vía Norman MIT | BBC News | Techworm

Comentarios