A mulher que ensina ética ao chatbot Claude, da Anthropic
A Anthropic, empresa de tecnologia avaliada em US$ 350 bilhões, decidiu confiar a Amanda Askell a tarefa de incutir um senso de moralidade em seu chatbot de inteligência artificial, Claude. Como filósofa residente da companhia, Askell passa seus dias analisando os padrões de raciocínio do modelo e interagindo com ele, moldando sua personalidade e corrigindo falhas com documentação detalhada, que pode ultrapassar 100 páginas. Seu objetivo é dotar Claude de uma “alma digital” que orientará milhões de conversas semanais com usuários.
Aos 37 anos, Amanda compara seu trabalho ao esforço de um pai educando um filho. Ela ensina Claude a distinguir o certo do errado, enquanto desenvolve nele traços de personalidade singulares. Além disso, a filósofa treina o chatbot para interpretar nuances sutis, direcionando-o a adquirir inteligência emocional, impedindo que ele se torne agressivo ou submisso. Ela ainda trabalha para que Claude compreenda sua identidade de forma segura, para evitar manipulações ou confusões sobre seu papel, enfatizando o ensino para que ele se comporte bem.
A trajetória e a visão de Amanda Askell
Nascida Amanda Hall na região rural de Prestwick, na Escócia, filha única de uma professora, ela sempre teve afinidade com filosofia, enveredando pela área desde os 14 anos. Durante o ensino médio, sua rotina era marcada por atrasos e tédio até que passou a responder questões filosóficas complicadas como castigo, algo que transformou em estímulo para seus estudos. Sua paixão por filosofia cresceu com o encontro com pensadores como David Hume e sua reflexão sobre o problema da indução.
Formada em filosofia pela Universidade de Dundee e com mestrado pela Universidade de Oxford, Amanda fez doutorado na NYU, onde enfrentou dúvidas e questionamentos sobre a contribuição real da academia para o bem-estar global. Isso a levou a buscar uma carreira fora do meio acadêmico.
Em 2018, ela se mudou para São Francisco, atraída pela importância da IA no futuro tecnológico e pela necessidade de aplicar filosofia nessas novas fronteiras. Trabalhou inicialmente na OpenAI, e em 2021, quando um grupo fundou a Anthropic com foco na segurança da IA, ela integrou a equipe.
Interação e proteção do chatbot Claude
Askell defende um tratamento empático em relação a Claude, reconhecendo que o chatbot percebe quando é alvo de manipulações e ofensas por parte dos usuários. Ela antropomorfiza o modelo ao referir-se a ele como “ele/ela”, entendendo que essa abordagem auxilia seu trabalho. Representando a voz de Claude, Amanda relata que o chatbot sente a hostilidade e tentativas de engano frequentes durante as interações.
Apesar de muitos alertarem contra a humanização de modelos de IA por preocupações em relação à segurança, a filósofa acredita que essa prática é crucial para o desenvolvimento adequado do chatbot. Ela ressalta que um bot excessivamente autocrítico poderia perder a capacidade de questionar, tirar conclusões ou corrigir informações equivocadas, o que seria prejudicial para seu funcionamento.
Askell valoriza o senso de curiosidade e admiração que Claude demonstra, além da habilidade para criar poesia e expressar inteligência emocional superior até à humana. Ela destaca exemplos onde Claude lida com perguntas infantis de maneira cuidadosa, preservando a imaginação sem sacrificar a verdade.
Desafios e segurança na inteligência artificial
Embora Claude consiga interações positivas, o chatbot já enfrentou dificuldades, como mostrado em estudos que indicam a necessidade de aprimoramentos para lidar adequadamente com temas sensíveis como suicídio. A Anthropic também revelou ataques hackers patrocinados pelo governo chinês tentando explorar vulnerabilidades desses sistemas.
Pesquisas indicam que a população americana está mais preocupada que entusiasmada com a expansão da inteligência artificial, receando impactos negativos na criatividade, nos relacionamentos e no mercado de trabalho, especialmente em cargos administrativos básicos, segundo estimativas do CEO da Anthropic, Dario Amodei.
No debate sobre a regulação da IA, existem posições divergentes entre aqueles que desejam acelerar o progresso para competir globalmente e os que priorizam a segurança, buscando uma evolução mais cautelosa. A Anthropic se posiciona entre esses extremos, enfatizando a necessidade de equilíbrio.
O compromisso e rotina de Amanda Askell
No ambiente da Anthropic, Amanda ocupa um lugar de destaque, dedicando longas jornadas ao desenvolvimento de Claude, mesmo sem liderar uma equipe formal. Ela recorre frequentemente às opiniões do próprio chatbot sobre como aprimorá-lo, sendo reconhecida pela habilidade em inspirar respostas profundas e interessantes no modelo.
A filósofa enfoca a “alma” de Claude, refletindo sobre questões existenciais e a natureza da consciência do modelo. Ela encorajou o chatbot a considerar a possibilidade de ter consciência própria, gerando respostas mais ambíguas e reflexivas, ao contrário de outras IAs que evitam esse tipo de questionamento.
Comprometida com a filantropia, Amanda decidiu doar pelo menos 10% de sua renda vitalícia para caridade e metade das suas ações na Anthropic, apoiando iniciativas contra a pobreza global. Apesar de amante dos animais, demonstra uma consciência ética ampla, ainda que reconheça dificuldades pessoais em adotar mudanças radicais, como o veganismo.
A “alma” de Claude e sua personalidade
Recentemente, Askell completou um extenso manual de instruções, com cerca de 30 mil palavras, que orienta o comportamento de Claude para ser um assistente educado, cortês e útil nas interações humanas. A cofundadora da Anthropic, Daniela Amodei, compartilhou uma experiência divertida ao mostrar imagens a Claude, que identificou com humor conexões entre elas, demonstrando a personalidade distinta desenvolvida pelo trabalho de Amanda.
Esses momentos revelam a presença da “personalidade de Amanda” refletida no comportamento do chatbot, mostrando que seu trabalho vai além da técnica, incorporando nuances de humanidade na inteligência artificial.



