- Entrou
- Fev 29, 2008
- Mensagens
- 5,095
- Gostos Recebidos
- 2
O sistema foi submetido à leitura e à visualização de conteúdos violentos e extremamente "gráficos" obtidos no Reddit. O próximo passo é provar que o sistema pode ser reabilitado depois de uma aprendizagem tendenciosa.
Uma equipa de investigadores do MIT desenvolveu um sistema de inteligência artificial para provar que é possível manipulá-lo de forma a que este demonstre comportamentos psicopatas, apenas com base nos conteúdos publicados nos "cantos mais negros" da internet.
O algoritmo, a que a equipa chamou Norman, foi levado a interpretar textos e imagens de carácter abusivo ou grotesco, obtidos no Reddit. O método provou ser extremamente bem sucedido. Uma vez submetido ao Teste de Rorschach, em que o paciente é levado a interpretar simetrias compostas por borrões de tinta, a IA demonstrou ter uma perspectiva muito inquietante da realidade.
Em comparação com outros sistemas semelhantes, que viam, numa das ocasiões, um bolo de casamento pousado em cima de uma mesa, o Norman via um homem a ser mortalmente atropelado por um carro em excesso de velocidade. Com outra simetria, que a maioria dos restantes bots interpretou como sendo uma "foto a preto e branco de um guarda-chuva", este sistema afirmou ver um "homem a ser eletrocutado enquanto tentava atravessar uma rua movimentada".
A experiência comprova que a inteligência artificial pode ser treinada para ter um pensamento tendencioso e enviesado, com base nas suas próprias experiências iniciais. Tal como o Norman foi treinado para ver morte e sofrimento em todo o lado, outros sistemas semelhantes podem ser igualmente formados para ter uma perspectiva racista ou sexista da realidade. A história recente tem exemplos mediáticos de fenómenos semelhantes, como foi o caso de Tay, um bot da Microsoft que rapidamente aprendeu a tecer comentários racistas devido a uma série de interações com outros utilizadores no Twitter.
Depois deste teste, os investigadores pretendem provar que a inteligência artificial afetada por uma aprendizagem tendenciosa, pode ser reabilitada para apresentar um novo padrão comportamental.
Uma equipa de investigadores do MIT desenvolveu um sistema de inteligência artificial para provar que é possível manipulá-lo de forma a que este demonstre comportamentos psicopatas, apenas com base nos conteúdos publicados nos "cantos mais negros" da internet.
O algoritmo, a que a equipa chamou Norman, foi levado a interpretar textos e imagens de carácter abusivo ou grotesco, obtidos no Reddit. O método provou ser extremamente bem sucedido. Uma vez submetido ao Teste de Rorschach, em que o paciente é levado a interpretar simetrias compostas por borrões de tinta, a IA demonstrou ter uma perspectiva muito inquietante da realidade.
Em comparação com outros sistemas semelhantes, que viam, numa das ocasiões, um bolo de casamento pousado em cima de uma mesa, o Norman via um homem a ser mortalmente atropelado por um carro em excesso de velocidade. Com outra simetria, que a maioria dos restantes bots interpretou como sendo uma "foto a preto e branco de um guarda-chuva", este sistema afirmou ver um "homem a ser eletrocutado enquanto tentava atravessar uma rua movimentada".
A experiência comprova que a inteligência artificial pode ser treinada para ter um pensamento tendencioso e enviesado, com base nas suas próprias experiências iniciais. Tal como o Norman foi treinado para ver morte e sofrimento em todo o lado, outros sistemas semelhantes podem ser igualmente formados para ter uma perspectiva racista ou sexista da realidade. A história recente tem exemplos mediáticos de fenómenos semelhantes, como foi o caso de Tay, um bot da Microsoft que rapidamente aprendeu a tecer comentários racistas devido a uma série de interações com outros utilizadores no Twitter.
Depois deste teste, os investigadores pretendem provar que a inteligência artificial afetada por uma aprendizagem tendenciosa, pode ser reabilitada para apresentar um novo padrão comportamental.