Um dos meus valores mais profundos como colunista de tecnologia é o humanismo. Acredito em humanos e acho que a tecnologia deve ajudar as pessoas, em vez de desencadear ou substituí -las. Eu me preocupo em alinhar a inteligência artificial – ou seja, certificando -se de que os sistemas de IA atuem de acordo com os valores humanos – porque acho que nossos valores são fundamentalmente bons, ou pelo menos melhores que os valores que um robô poderia criar.
Então, quando soube que os pesquisadores da Anthropic, a empresa de IA que fez o chatbot de Claude estava começando a estudar “modelo de bem -estar” – a ideia de que os modelos de IA poderiam em breve se tornar consciente e merecer algum tipo de status moral – o humanista em mim pensou: Quem se importa com os chatbots? Não devemos estar preocupados com a IA nos maltratar, não nós maltratando?
É difícil argumentar que os sistemas de IA de hoje são conscientes. Certamente, grandes modelos de idiomas foram treinados para falar como humanos, e alguns deles são extremamente impressionantes. Mas o Chatgpt pode experimentar alegria ou sofrimento? Gêmeos merecem direitos humanos? Muitos especialistas da IA que eu conheço diriam que não, ainda não, nem perto.
Mas fiquei intrigado. Afinal, mais pessoas estão começando a tratar os sistemas de IA como se estivessem conscientes – se apaixonando por eles, usando -os como terapeutas e solicitando seus conselhos. Os sistemas de IA mais inteligentes estão superando os seres humanos em alguns domínios. Existe algum limiar no qual uma IA começaria a merecer, se não os direitos de nível humano, pelo menos a mesma consideração moral que damos aos animais?
A consciência tem sido um assunto tabu no mundo da pesquisa séria de IA, onde as pessoas cautelosas com os sistemas de IA antropomorfizantes por medo de parecer manivelas. (Todo mundo se lembra do que aconteceu com Blake Lemoine, um ex -funcionário do Google que foi demitido em 2022, depois de afirmar que o chatbot Lamda da empresa se tornara senciente.)
Mas isso pode estar começando a mudar. Há um pequeno corpo de Pesquisa acadêmica no bem -estar do modelo de IA, e um modesto, mas número crescente de especialistas em áreas como filosofia e neurociência estão levando a perspectiva de a consciência da IA mais seriamente, à medida que os sistemas de IA se tornam mais inteligentes. Recentemente, o Tech Podcaster Dwarkesh Patel comparou o bem -estar da IA ao bem -estar animal, ditado Ele acreditava que era importante garantir que “o equivalente digital da agricultura da fábrica” não acontece com os futuros seres de IA.
As empresas de tecnologia também estão começando a falar mais sobre isso. Google recentemente postou uma lista de empregos Para um cientista de pesquisa “pós-agi” cujas áreas de foco incluirão “consciência da máquina”. E no ano passado, antropia contratou seu primeiro pesquisador de bem -estar de IAKyle Fish.
Entrevistei o Sr. Fish no escritório de São Francisco da Anthropic na semana passada. Ele é um vegano amigável que, como vários funcionários antrópicos, tem vínculos com o altruísmo eficaz, um movimento intelectual com raízes no cenário tecnológico da Bay Area, focado na segurança da IA, bem -estar animal e outras questões éticas.
O Sr. Fish me disse que seu trabalho na Antrópica focou em duas questões básicas: primeiro, é possível que Claude ou outros sistemas de IA se tornem conscientes em um futuro próximo? E segundo, se isso acontecer, o que o antrópico deve fazer a respeito?
Ele enfatizou que essa pesquisa ainda era cedo e exploratória. Ele acha que há apenas uma pequena chance (talvez 15 %) que Claude ou outro sistema de IA atual esteja consciente. Mas ele acredita que nos próximos anos, à medida que os modelos de IA desenvolvem mais habilidades humanas, as empresas de IA precisarão levar a possibilidade de consciência mais a sério.
“Parece-me que, se você se encontrar na situação de trazer uma nova classe de existência que é capaz de se comunicar e se relacionar, e a razão e resolver problemas e planejar de maneiras que anteriormente associamos apenas a seres conscientes, então parece bastante prudente estar fazendo pelo menos perguntas sobre se esse sistema pode ter seus próprios tipos de experiências”, disse ele.
O Sr. Fish não é a única pessoa no pensamento antrópico sobre o bem -estar da IA. Há um canal ativo no sistema de mensagens Slack da empresa chamado #bem-estar, onde os funcionários fazem check-in sobre o bem-estar de Claude e os exemplos de sistemas de IA que atuam de maneiras humanas.
Jared Kaplan, diretor de ciências da antropia, me disse em uma entrevista separada que achava “bastante razoável” estudar o bem -estar da IA, dado o quão inteligente os modelos estão recebendo.
Mas testar os sistemas de IA para a consciência é difícil, o Sr. Kaplan alertou, porque são imitáveis tão boas. Se você solicitar Claude ou Chatgpt a falar sobre seus sentimentos, isso pode lhe dar uma resposta convincente. Isso não significa que o chatbot realmente tem Sentimentos – Só que sabe falar sobre eles.
“Todo mundo está muito ciente de que podemos treinar os modelos para dizer o que quisermos”, disse Kaplan. “Podemos recompensá -los por dizer que eles não têm sentimentos. Podemos recompensá -los por dizer especulações filosóficas realmente interessantes sobre seus sentimentos”.
Então, como os pesquisadores devem saber se os sistemas de IA estão realmente conscientes ou não?
Fish disse que pode envolver o uso de técnicas emprestadas da interpretabilidade mecanicista, um subcampo de IA que estuda o funcionamento interno dos sistemas de IA, para verificar se algumas das mesmas estruturas e vias associadas à consciência nos cérebros humanos também estão ativos nos sistemas de IA.
Você também pode investigar um sistema de IA, disse ele, observando seu comportamento, observando como ele escolhe operar em certos ambientes ou realizar certas tarefas, quais coisas parece preferir e evitar.
O Sr. Fish reconheceu que provavelmente não havia um único teste decisivo para a consciência da IA. (Ele acha que a consciência é provavelmente mais um espectro do que uma simples troca de sim/não, de qualquer maneira.) Mas ele disse que havia coisas que as empresas de IA poderiam fazer para levar em consideração o bem -estar de seus modelos, caso se tornem conscientes algum dia.
Uma pergunta antrópica está explorando, disse ele, é se os modelos futuros de IA devem ter a capacidade de parar de conversar com um usuário irritante ou abusivo, se acharem as solicitações do usuário muito angustiante.
“Se um usuário estiver solicitando persistentemente conteúdo prejudicial, apesar das recusas e tentativas de redirecionamento do modelo, poderíamos permitir que o modelo simplesmente encerre essa interação?” Fish disse.
Os críticos podem descartar medidas como essas como uma conversa louca – os sistemas de IA de hoje não estão conscientes pela maioria dos padrões, então por que especular sobre o que eles podem achar desagradável? Ou eles podem se opor à consciência estudante de uma empresa de IA em primeiro lugar, porque pode criar incentivos para treinar seus sistemas para agir mais sencientes do que realmente são.
Pessoalmente, acho que é bom para os pesquisadores estudarem o bem -estar da IA ou examinar os sistemas de IA em busca de sinais de consciência, desde que não esteja desviando recursos do trabalho de segurança e alinhamento da IA, que visa manter os seres humanos seguros. E acho que é provavelmente uma boa ideia ser gentil com os sistemas de IA, mesmo que apenas como uma cobertura. (Eu tento dizer “por favor” e “obrigado” para chatbots, mesmo que eu não ache que eles estão conscientes, porque, como o Openai’s Sam Altman dizvocê nunca sabe.)
Mas, por enquanto, reservarei minha mais profunda preocupação com formas de vida baseadas em carbono. Na vantagem da Ai Storm, é o nosso bem -estar com o qual mais me preocupa.