• Olá Visitante, se gosta do forum e pretende contribuir com um donativo para auxiliar nos encargos financeiros inerentes ao alojamento desta plataforma, pode encontrar mais informações sobre os várias formas disponíveis para o fazer no seguinte tópico: leia mais... O seu contributo é importante! Obrigado.

Investigadores do MIT "traumatizaram" bot com conteúdos do Reddit

Amoom

Super-Moderador
Team GForum
Entrou
Fev 29, 2008
Mensagens
5,095
Gostos Recebidos
2
O sistema foi submetido à leitura e à visualização de conteúdos violentos e extremamente "gráficos" obtidos no Reddit. O próximo passo é provar que o sistema pode ser reabilitado depois de uma aprendizagem tendenciosa.



Uma equipa de investigadores do MIT desenvolveu um sistema de inteligência artificial para provar que é possível manipulá-lo de forma a que este demonstre comportamentos psicopatas, apenas com base nos conteúdos publicados nos "cantos mais negros" da internet.

O algoritmo, a que a equipa chamou Norman, foi levado a interpretar textos e imagens de carácter abusivo ou grotesco, obtidos no Reddit. O método provou ser extremamente bem sucedido. Uma vez submetido ao Teste de Rorschach, em que o paciente é levado a interpretar simetrias compostas por borrões de tinta, a IA demonstrou ter uma perspectiva muito inquietante da realidade.

Em comparação com outros sistemas semelhantes, que viam, numa das ocasiões, um bolo de casamento pousado em cima de uma mesa, o Norman via um homem a ser mortalmente atropelado por um carro em excesso de velocidade. Com outra simetria, que a maioria dos restantes bots interpretou como sendo uma "foto a preto e branco de um guarda-chuva", este sistema afirmou ver um "homem a ser eletrocutado enquanto tentava atravessar uma rua movimentada".

A experiência comprova que a inteligência artificial pode ser treinada para ter um pensamento tendencioso e enviesado, com base nas suas próprias experiências iniciais. Tal como o Norman foi treinado para ver morte e sofrimento em todo o lado, outros sistemas semelhantes podem ser igualmente formados para ter uma perspectiva racista ou sexista da realidade. A história recente tem exemplos mediáticos de fenómenos semelhantes, como foi o caso de Tay, um bot da Microsoft que rapidamente aprendeu a tecer comentários racistas devido a uma série de interações com outros utilizadores no Twitter.

Depois deste teste, os investigadores pretendem provar que a inteligência artificial afetada por uma aprendizagem tendenciosa, pode ser reabilitada para apresentar um novo padrão comportamental.
 
Topo