Blog gratis
Reportar
Editar
¡Crea tu blog!
Compartir
¡Sorpréndeme!
computacion1/NUEVAS TECNOLOGÍAS// Blog de los Prof. Rita Fasolino y Mario Freschinaldi.
>>>Nexo para comunicarnos y aprender más, fuera del horario de clase.*** Mail Rita Fasolino:rita.docente.tic@gmail.com Mail Mario Freschinaldi:enviotp@gmail.com /EN AS: JVG Nuevas Tecnologías (nombr
25 de Marzo, 2016

LOS PELIGROS EN LAS REDES...

Autor: mariof2005, 18:17, guardado en SEGURIDAD INFORMÁTICA

Le pasó a Microsoft.

¡Imaginen lo que nos puede pasar a nosotros!



Microsoft apagó su robot inteligente porque se volvió nazi y racista en un día

Se trata de Tay, un ambicioso experimento de inteligencia artificial. El bot estaba programado para aprender de las conversaciones en las redes sociales. Pero fue víctima de un boicot de usuarios neonazis.

Tay, un software de inteligencia artificial diseñado por Microsoft para conversar como una adolescente, fue supendido en menos de un día por hacer comentarios racistas, sexistas y ofensivos en las redes sociales.

Tay, experimento de inteligencia artificial de Microsoft. / BuzzFeed

A principios de semana, Microsoft lanzó el experimento, en el cual el software Tay -más conocida como un "botchat"- recibía la personalidad de una adolescente que estaba diseñada para aprender de los intercambios online con personas reales.

En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y “diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida”.

En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. El chatbot fue lanzado el miércoles, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

Pero el plan no salió como se esperaba y sin pretenderlo la joven aprendió cosas malas, según la empresa.

Mirá también: China desafía al programa de inteligencia artificial de Google

La particularidad de este bot es que va aprendiendo de las conversaciones que mantiene con sus interlocutores. Absorbe toda clase de información nueva y luego la utiliza en otras conversaciones. El problema está en que no había ningún filtro por parte de Microsoft y de ahí que algunos internautas aprovecharan ese vacío para boicotear a Tay en su cuenta de Twitter @TayandYou.

Tay genocidio

“¿Apoyas el genocidio?”, le preguntó un usuario en Twitter. “De hecho lo hago”, respondió Tay. “¿De qué raza?”, volvió a preguntar el usuario. “De los mexicanos”, respondió el programa.

"Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada", dijo la compañía.

Mirá también: Paliza de Google contra el campeón de Go: fue 4-1

Algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes ofensivos. Pronto, Tay estaba enviando mensajes de empatía a Hitler, Donald Trump y comentarios e insultos hacia las mujeres y los negros, creando furor en redes sociales.

Tay holocausto

“No puedo creer que no lo vieran venir”, comentó el científico computacional Kris Hammond.

Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de “llamada y respuesta”, agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.“Todo el mundo dice que Tay se convirtió en esto o que se volvió racista”, dijo Hammond. “No es verdad”.

Mirá también: Microsoft implementa inteligencia artificial en el Minecraft

Según el científico, el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría.

Todos los comentarios ofensivos de Tay fueron borrados, pero la red está llena de capturas de pantalla en las que todavía se pueden ver.

Tay, experimento de inteligencia artificial de Microsoft. / BuzzFeed

Microsoft anunció que “hace ajustes'' a Tay, pero no detalló una posible fecha para su regreso.

"Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy", fue el último mensaje en Twitter de Tay.

Palabras claves , , , ,
Sin comentarios  ·  Recomendar

img

Más sobre este tema ·  Participar
Comentarios (0) ·  Enviar comentario
Esta entrada no admite comentarios.
Calendario
Ver mes anterior Agosto 2017 Ver mes siguiente
DOLUMAMIJUVISA
12345
6789101112
13141516171819
20212223242526
2728293031
Buscador
Blog   Web
Tópicos
» DESAFÍOS MATEMÁTICOS (33)
» NOTIFICACIONES (10)
» Programa Materia (2)
» SEGURIDAD INFORMÁTICA (147)
» TECNOLOGÍA Y CHIMENTOS (108)
» TEORÍA (88)
» TEXTIL (2)
» TRABAJOS PRÁCTICOS (10)
» VIDEOS TUTORAILES (8)
Nube de tags  [?]
Secciones
» Inicio
Enlaces
Más leídos
» Funciones Estadisticas en Excel
» MAPA CONCEPTUAL BUSCADORES EN INTERNET
» Pasar datos de una hoja Excel a otra
» PLACA MADRE-MOTHERBOARD
» POWERPOINT PONER FLECHAS
» SImuladores-Su uso en Educación
» Sistema Operativo Linux
» Sistema Operativo Windows | Propiedades
» Tabla Pitagórica en Excel
» TP WORD 6 | EDITOR DE ECUACIONES
Se comenta...
» Sistema Operativo Windows | Propiedades
2 Comentarios: dater, adriana
» Alterados por PI Alterados por Pi | Capítulo 1 - Números primos
1 Comentario: ALEJANDRA
FULLServices Network | Blog gratis | Privacidad