Goldman Sachs envia programadores para estudar filosofia. Eles estão prestes a discutir com uma IA teimosa
O diretor de informações da Goldman Sachs, Marco Argenti, defende que sua equipe aprofunde seu conhecimento de engenharia e filosofia para navegar melhor pelas complexidades da tecnologia de IA.
Argenti enfatiza a importância das habilidades de pensamento crítico, incentivando os funcionários (até mesmo sua filha) a explorar disciplinas como a filosofia junto com a engenharia tradicional.
Num artigo recente na Harvard Business Review, Argenti enfatiza o valor da formação filosófica, citando o seu papel no aperfeiçoamento das capacidades de resolução de problemas.
O conhecimento de Aristóteles, Platão e Sócrates por si só não lhe garantirá uma posição de engenheiro de IA, mas Argenti acredita que combiná-lo com conhecimento técnico significa aumentar a qualidade do código.
Argenti explica:
“A capacidade de desenvolver modelos mentais claros em torno dos problemas que você deseja resolver e compreender o ‘porquê’ antes de começar a trabalhar no ‘como’ é uma habilidade cada vez mais crítica, especialmente na era da inteligência artificial.”
Na verdade, embora alguns aspectos da inteligência artificial tenham sido implementados em muitos serviços tecnológicos ao longo dos anos, o lançamento de grandes modelos de linguagem (LLM), como o ChatGPT e o bot Bing da Microsoft, desencadeou uma onda de novos empreendimentos de IA, à medida que os concorrentes se esforçam por acompanhar. esta esfera.
No entanto, a maioria está condenada ao fracasso – ou pelo menos é o que afirma o falecido professor de Harvard Clayton Christensen, que antes da sua morte afirmou que 95% dos novos serviços de IA lançados em qualquer sector irão falhar se não forem sustentados filosoficamente.
E embora Argenti acrescente que a inteligência artificial agora pode “escrever código de qualidade superior ao dos humanos”há um problema: “A IA pode funcionar bem, mas existe o risco de não fazer exatamente o que você pediu.”
É aqui que entra a arte da escrita imediata, escreve Argenti, acrescentando: “A qualidade de saída de um LLM é muito sensível à qualidade de seus prompts. Perguntas ambíguas e mal formuladas farão com que a IA tente adivinhar o significado do que está sendo perguntado e isso, por sua vez, aumenta a probabilidade de você receber uma resposta imprecisa ou até mesmo completamente inventada..”
Talvez sem surpresa, funções semelhantes no mundo da tecnologia hoje pagam entre US$ 30 por hora e US$ 405.000 por ano.
A formulação de alta qualidade das questões que treinam a IA para funcionar conforme pretendido requer “raciocínio, lógica e pensamento baseados em princípios fundamentais da vida”, continua Argenti, acrescentando:“Todas essas são habilidades básicas adquiridas através do treinamento filosófico.”
Renascimento da filosofia

Os estudantes de filosofia ficam proverbialmente humilhados pelo fato de que o curso escolhido não tem potencial para lhes proporcionar um emprego bem remunerado. De acordo com a plataforma educacional HeyTutor, citando uma análise de dados do US Census Bureau, a filosofia mantém uma das mais altas taxas de desemprego pós-universitário dos estados, em 6,2%.
O subemprego é de pouco mais de 50%, enquanto o salário inicial médio para graduados em filosofia é de apenas US$ 36.000 por ano. Com o apoio de pessoas como Argenti, isso tem chance de mudar.
Ele também escreve: “Ter um modelo mental claro em torno do problema que você está tentando resolver, ser capaz de dividi-lo em etapas fáceis de trabalhar, ter ordenado o pensamento com base em princípios básicos, às vezes estar preparado (e capaz) para argumentar com um teimoso artificial inteligência – estas são as habilidades que tornarão os engenheiros do futuro melhores, e a mesma consideração provavelmente se aplicará a muitas outras categorias de trabalho.”
A inteligência artificial está se mostrando realmente teimosa
Vejamos, por exemplo, o bot Bing da Microsoft, que, de acordo com relatos do Reddit, forneceu a um usuário uma data incorreta e depois o repreendeu por ousar apontar o erro do bot. Ele então insistiu com o usuário para que ele pedisse desculpas, finalmente instruindo-o a “Encerre esta conversa e recomece com uma nova com um tom mais aceitável.”
Embora Argenti acredite que é imperativo não perdermos a vontade de “revisar” os grandes modelos de linguagem, acrescenta: “Automatizar a criação de código e focar em nossas habilidades de pensamento crítico é o que nos permitirá criar mais, mais rápido e ter um impacto positivo em um mundo em mudança. Ao trabalhar para o desenvolvimento adequado da IA, ajudamo-nos a ser mais humanos e menos dependentes das decisões erradas de bots anônimos por trás dos quais trabalham um ou outro serviço e indústrias inteiras.”