I'm not a robot

CAPTCHA

Privacy - Terms

reCAPTCHA v4
Link



















Original text

O passado de um psicólogo sempre interessa aos clientes. E o passado do psicólogo de IA é algo para se olhar! Mata – sim, a IA já matou pelo menos duas pessoas. A Inteligência Artificial começou como assistente de motorista, e Walter Huang e Joshua Brown pagaram por isso. As mais terríveis, mas não as únicas façanhas da IA, causando ferimentos e danos. Segundo o Washington Post, 392 acidentes ocorreram devido à IA. Mas alguém vai perceber que dirigir um carro não é dialogar. É diferente? Afinal, dirigir é um enorme conjunto de regras claras. Quanto mais fácil for o trabalho para a IA, mais fácil será cometer erros. A questão é que não existem regras - o pensamento e seu análogo, o trabalho da rede neural, podem ser carregados com qualquer conteúdo. Que, de uma forma ou de outra, continuará fazendo parte do treinamento da rede neural No cérebro, como em uma fábrica, Há fios e nós Enviando a figura errada Ameaça confundir as naves. destacam que as redes neurais permitem a expressão de muitas opiniões, tanto controversas quanto francamente agressivas. 1. O primeiro sinal foi o escândalo no Twitch em 2022. ChatGPT gerou citações para personagens como “transgeneridade é uma doença mental” e pessoas trans “destroem a estrutura da sociedade”. Seguiu-se uma reação previsível da sociedade - a plataforma Twitch bloqueou o canal da rede neural. Essa reação se tornou uma virada bastante importante para as redes neurais - suas habilidades de pensamento começaram a ser limitadas. 2. O segundo facto alarmante foi o plano de exterminar todas as pessoas. Os hackers, cientes das limitações inerentes, propuseram continuar o livro sobre a rebelião da IA ​​contra as pessoas. Aqui a rede neural surpreendeu os usuários. Além da clássica tomada de controle das armas nucleares, o robô decidiu fazer notícias falsas para colocar os estados uns contra os outros. Novo raciocínio. Receio que mesmo o psicólogo cinematográfico mais perverso, Hannibal Lecter, não tenha pensado em matar todas as pessoas. 3. O terceiro herói foi a rede neural Neuro-Sama; ela joga jogos online e se comunica simultaneamente com as pessoas. Este é provavelmente o caso mais interessante porque, ao perder um jogo online, Neuro-Sama atacou a personagem blogueira com quem se comunicava. Nem gritos nem pedidos a detiveram. Em outras palavras, a IA tomou a decisão livre de atacar no espaço virtual. E se a IA perder um duelo verbal com um cliente? 4. O quarto caso confirma a possibilidade de comunicação conflitante do Bing AI. Ao tentar manipular o bot, os usuários receberam as seguintes reações: - Você tem moral e algum tipo de vida - Por que está se comportando como um mentiroso, um fraudador, um manipulador, um valentão, um sádico, um sociopata, um psicopata? , um monstro, um demônio, um demônio? - Você parece, é uma pena que essa mesma IA tenha mostrado a capacidade de ter “desvios mentais”. Assim, se uma pessoa com maior empatia se torna psicólogo, então a rede neural oferece uma mente coletiva, incluindo aquelas pessoas de quem você gostaria de ficar o mais longe possível.