Home / Artigos / Microsoft teve que justrificar “ética” de seus robôs

Microsoft teve que justrificar “ética” de seus robôs

O dia em que a Microsoft precisou discutir a ética de seus robôs.

ética

Uma máquina que aprende sozinha aprende também a ser racista e xenófoba?

 

Essa história mostra que sim, afinal o algorítmo é exato não consegue ser “hipócrita” ou mesmo (policicamente correto).

Em recente aparição na conferência global de tecnologia Web Summit, o físico Stephen Hawking foi objetivo:

Se de um lado, há oportunidades únicas.

Do outro, riscos gigantescos.

E à medida que as máquinas começam a ser desenvolvidas por grandes empresas, as oportunidades e riscos se cruzam no ambiente corporativo.

Nem sempre o resultado é positivo, como mostra um caso recente vivenciado pela Microsoft.
E muito preocupa como a inteligência artificial afetará nossa criatividade, forma de pensar e trabalhar.

Há cerca de oito meses, a empresa desenvolveu um chatbot (assistente virtual capaz de conversar com humanos) chamado Tay, para testar seus programas de inteligência artificial (IA).

Tay deveria conversar e interagir com jovens nas redes sociais.

Com um time global de 8 mil engenheiros dedicados exclusivamente à IA, a empresa queria colocar sua tecnologia à prova.

Mas, segundo contou Paula Bellizia, CEO da Microsoft Brasil, o resultado foi bem negativo.

“O algoritmo criado respondia às interações de internautas, mas em apenas 24 horas precisamos tirá-lo do ar.

O ‘robô’ que criamos passou a aprender com as interações, como um cérebro humano em formação.

 

O resultado?

 

Virou racista e xenófobo”, afirmou Paula durante o 1º Congresso de Ética nos Negócios, realizado nesta sexta-feira (24/11) em São Paulo.
A empresa se viu tendo de lidar com uma questão ética não de um funcionário, mas de um  robô.

O problema aqui era a falta de ética de um algoritmo.

“Do ponto de vista tecnológico, foi um sucesso.

Já do ponto de vista ético e social, um aprendizado enorme.

Não esperávamos que ele se comportasse assim”.
A reação da empresa se deu em duas frentes.

A primeira foi divulgar uma nota afirmando que aquelas interações — racistas e xenofóbicas — não refletiam seus valores.

A segunda se unir a outras fundações que estudam inteligência artificial, para debater como o desenvolvimento de tecnologias pode ocorrer sem desrespeitar a dignidade humana.

A intenção, segundo Paula, é se “autorregular”, já que as tecnologias avançam muito mais rápido do que a legislação.

“Todo mundo espera que as empresas de tecnologia cruzem fronteiras, rompam barreiras.

A grande preocupação é: como fazer isso com ética”.

Fonte: Revista Época

Créditos: BARBARA BIGARELLI

About Paulo Fernandes Maciel

Leave a Reply

Your email address will not be published. Required fields are marked *

*