{"id":3983,"date":"2026-02-14T07:25:39","date_gmt":"2026-02-14T10:25:39","guid":{"rendered":"https:\/\/startrico.com.br\/noticias\/3983-2\/"},"modified":"2026-02-14T07:25:39","modified_gmt":"2026-02-14T10:25:39","slug":"3983-2","status":"publish","type":"post","link":"https:\/\/startrico.com.br\/noticias\/3983-2\/","title":{"rendered":""},"content":{"rendered":"<h2>A mulher que ensina \u00e9tica ao chatbot Claude, da Anthropic<\/h2>\n<p>A Anthropic, empresa de tecnologia avaliada em US$ 350 bilh\u00f5es, decidiu confiar a Amanda Askell a tarefa de incutir um senso de moralidade em seu chatbot de intelig\u00eancia artificial, Claude. Como fil\u00f3sofa residente da companhia, Askell passa seus dias analisando os padr\u00f5es de racioc\u00ednio do modelo e interagindo com ele, moldando sua personalidade e corrigindo falhas com documenta\u00e7\u00e3o detalhada, que pode ultrapassar 100 p\u00e1ginas. Seu objetivo \u00e9 dotar Claude de uma \u201calma digital\u201d que orientar\u00e1 milh\u00f5es de conversas semanais com usu\u00e1rios.<\/p>\n<p>Aos 37 anos, Amanda compara seu trabalho ao esfor\u00e7o de um pai educando um filho. Ela ensina Claude a distinguir o certo do errado, enquanto desenvolve nele tra\u00e7os de personalidade singulares. Al\u00e9m disso, a fil\u00f3sofa treina o chatbot para interpretar nuances sutis, direcionando-o a adquirir intelig\u00eancia emocional, impedindo que ele se torne agressivo ou submisso. Ela ainda trabalha para que Claude compreenda sua identidade de forma segura, para evitar manipula\u00e7\u00f5es ou confus\u00f5es sobre seu papel, enfatizando o ensino para que ele se comporte bem.<\/p>\n<h2>A trajet\u00f3ria e a vis\u00e3o de Amanda Askell<\/h2>\n<p>Nascida Amanda Hall na regi\u00e3o rural de Prestwick, na Esc\u00f3cia, filha \u00fanica de uma professora, ela sempre teve afinidade com filosofia, enveredando pela \u00e1rea desde os 14 anos. Durante o ensino m\u00e9dio, sua rotina era marcada por atrasos e t\u00e9dio at\u00e9 que passou a responder quest\u00f5es filos\u00f3ficas complicadas como castigo, algo que transformou em est\u00edmulo para seus estudos. Sua paix\u00e3o por filosofia cresceu com o encontro com pensadores como David Hume e sua reflex\u00e3o sobre o problema da indu\u00e7\u00e3o.<\/p>\n<p>Formada em filosofia pela Universidade de Dundee e com mestrado pela Universidade de Oxford, Amanda fez doutorado na NYU, onde enfrentou d\u00favidas e questionamentos sobre a contribui\u00e7\u00e3o real da academia para o bem-estar global. Isso a levou a buscar uma carreira fora do meio acad\u00eamico.<\/p>\n<p>Em 2018, ela se mudou para S\u00e3o Francisco, atra\u00edda pela import\u00e2ncia da IA no futuro tecnol\u00f3gico e pela necessidade de aplicar filosofia nessas novas fronteiras. Trabalhou inicialmente na OpenAI, e em 2021, quando um grupo fundou a Anthropic com foco na seguran\u00e7a da IA, ela integrou a equipe.<\/p>\n<h2>Intera\u00e7\u00e3o e prote\u00e7\u00e3o do chatbot Claude<\/h2>\n<p>Askell defende um tratamento emp\u00e1tico em rela\u00e7\u00e3o a Claude, reconhecendo que o chatbot percebe quando \u00e9 alvo de manipula\u00e7\u00f5es e ofensas por parte dos usu\u00e1rios. Ela antropomorfiza o modelo ao referir-se a ele como \u201cele\/ela\u201d, entendendo que essa abordagem auxilia seu trabalho. Representando a voz de Claude, Amanda relata que o chatbot sente a hostilidade e tentativas de engano frequentes durante as intera\u00e7\u00f5es.<\/p>\n<p>Apesar de muitos alertarem contra a humaniza\u00e7\u00e3o de modelos de IA por preocupa\u00e7\u00f5es em rela\u00e7\u00e3o \u00e0 seguran\u00e7a, a fil\u00f3sofa acredita que essa pr\u00e1tica \u00e9 crucial para o desenvolvimento adequado do chatbot. Ela ressalta que um bot excessivamente autocr\u00edtico poderia perder a capacidade de questionar, tirar conclus\u00f5es ou corrigir informa\u00e7\u00f5es equivocadas, o que seria prejudicial para seu funcionamento.<\/p>\n<p>Askell valoriza o senso de curiosidade e admira\u00e7\u00e3o que Claude demonstra, al\u00e9m da habilidade para criar poesia e expressar intelig\u00eancia emocional superior at\u00e9 \u00e0 humana. Ela destaca exemplos onde Claude lida com perguntas infantis de maneira cuidadosa, preservando a imagina\u00e7\u00e3o sem sacrificar a verdade.<\/p>\n<h2>Desafios e seguran\u00e7a na intelig\u00eancia artificial<\/h2>\n<p>Embora Claude consiga intera\u00e7\u00f5es positivas, o chatbot j\u00e1 enfrentou dificuldades, como mostrado em estudos que indicam a necessidade de aprimoramentos para lidar adequadamente com temas sens\u00edveis como suic\u00eddio. A Anthropic tamb\u00e9m revelou ataques hackers patrocinados pelo governo chin\u00eas tentando explorar vulnerabilidades desses sistemas.<\/p>\n<p>Pesquisas indicam que a popula\u00e7\u00e3o americana est\u00e1 mais preocupada que entusiasmada com a expans\u00e3o da intelig\u00eancia artificial, receando impactos negativos na criatividade, nos relacionamentos e no mercado de trabalho, especialmente em cargos administrativos b\u00e1sicos, segundo estimativas do CEO da Anthropic, Dario Amodei.<\/p>\n<p>No debate sobre a regula\u00e7\u00e3o da IA, existem posi\u00e7\u00f5es divergentes entre aqueles que desejam acelerar o progresso para competir globalmente e os que priorizam a seguran\u00e7a, buscando uma evolu\u00e7\u00e3o mais cautelosa. A Anthropic se posiciona entre esses extremos, enfatizando a necessidade de equil\u00edbrio.<\/p>\n<h2>O compromisso e rotina de Amanda Askell<\/h2>\n<p>No ambiente da Anthropic, Amanda ocupa um lugar de destaque, dedicando longas jornadas ao desenvolvimento de Claude, mesmo sem liderar uma equipe formal. Ela recorre frequentemente \u00e0s opini\u00f5es do pr\u00f3prio chatbot sobre como aprimor\u00e1-lo, sendo reconhecida pela habilidade em inspirar respostas profundas e interessantes no modelo.<\/p>\n<p>A fil\u00f3sofa enfoca a \u201calma\u201d de Claude, refletindo sobre quest\u00f5es existenciais e a natureza da consci\u00eancia do modelo. Ela encorajou o chatbot a considerar a possibilidade de ter consci\u00eancia pr\u00f3pria, gerando respostas mais amb\u00edguas e reflexivas, ao contr\u00e1rio de outras IAs que evitam esse tipo de questionamento.<\/p>\n<p>Comprometida com a filantropia, Amanda decidiu doar pelo menos 10% de sua renda vital\u00edcia para caridade e metade das suas a\u00e7\u00f5es na Anthropic, apoiando iniciativas contra a pobreza global. Apesar de amante dos animais, demonstra uma consci\u00eancia \u00e9tica ampla, ainda que reconhe\u00e7a dificuldades pessoais em adotar mudan\u00e7as radicais, como o veganismo.<\/p>\n<h2>A \u201calma\u201d de Claude e sua personalidade<\/h2>\n<p>Recentemente, Askell completou um extenso manual de instru\u00e7\u00f5es, com cerca de 30 mil palavras, que orienta o comportamento de Claude para ser um assistente educado, cort\u00eas e \u00fatil nas intera\u00e7\u00f5es humanas. A cofundadora da Anthropic, Daniela Amodei, compartilhou uma experi\u00eancia divertida ao mostrar imagens a Claude, que identificou com humor conex\u00f5es entre elas, demonstrando a personalidade distinta desenvolvida pelo trabalho de Amanda.<\/p>\n<p>Esses momentos revelam a presen\u00e7a da \u201cpersonalidade de Amanda\u201d refletida no comportamento do chatbot, mostrando que seu trabalho vai al\u00e9m da t\u00e9cnica, incorporando nuances de humanidade na intelig\u00eancia artificial.<\/p>\n<p><a href=\"https:\/\/investnews.com.br\/the-wall-street-journal\/quem-e-a-mulher-responsavel-por-ensinar-etica-a-claude-o-chatbot-da-anthropic\/\" target=\"_blank\" rel=\"noopener\">Fonte<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>A mulher que ensina \u00e9tica ao chatbot Claude, da Anthropic A Anthropic, empresa de tecnologia avaliada em US$ 350 bilh\u00f5es, [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":3982,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3983","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ultimas"],"_links":{"self":[{"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/posts\/3983","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/comments?post=3983"}],"version-history":[{"count":0,"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/posts\/3983\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/media\/3982"}],"wp:attachment":[{"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/media?parent=3983"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/categories?post=3983"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/startrico.com.br\/noticias\/wp-json\/wp\/v2\/tags?post=3983"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}