La nueva inteligencia artificial de Microsoft no reconoce a Hitler

Primero fue Tay, un chatbot que se volvió racista en Twitter, ahora CaptionBot dice que se siente mal cuando ve una foto del dictador.
Reconocimiento facial La inteligencia artificial dice que no reconoce la imagen o que se siente mal al ver a Hitler (Foto: Microsoft/Cortesía.)

Microsoft no quiere repetir los errores del pasado, es por eso que su nuevo experimento de inteligencia artificial CaptionBot ahora responde de manera desfavorable cuando se le muestra una fotografía del dictador alemán Adolfo Hitler.

Luego de que Microsoft lanzara un primer experimento de inteligencia artificial en Twitter,

, que terminó por ser misógino, racista e impulsor del genocidio, Microsoft creó otro ejercicio en la plataforma en donde los usuarios suben fotos para que este las identifique.

Lo curioso es que, cuando se le presenta una imagen de Hitler, la inteligencia artificial responde “no me siento bien, ¿podemos continuar con esto después?” o “de verdad no puedo describir esta fotografía”. Esto no ocurre si se busca analizar la fotografía de Benito Mussolini de Italia o Francisco Franco de España.

Al mostrarle la fotografía la inteligencia artificial responde que se siente un poco mal
La inteligencia artificial sí es capaz de reconocer al dictador italiano.
CaptionBot dice que está 99% seguro de que se trata de Francisco Franco.

La inteligencia artificial asegura que “puede entender el contenido de cualquier imagen y tratará de describirla como si fuera un humano, pero aún está aprendiendo por lo que se quedará con la foto pero no con la información personal del usuario”.

El ejercicio forma parte de las investigaciones que realiza el equipo de investigación cognitivo de Microsoft que,

, busca integrar sistemas de inteligencia artificial en diferentes plataformas.

¿Quieres enterarte de lo más reciente de la tecnología?
Entrevistas, noticias y reseñas sobre los últimos gadgets e innovaciones.
Gracias
Perdón, algo salió mal Gracias