A Apple está em conversas iniciais sobre o uso do Google Gemini para impulsionar uma versão reformulada do assistente de voz Siri, marcando um passo importante rumo à terceirização de mais partes de sua tecnologia de inteligência artificial.
Segundo pessoas familiarizadas com o assunto, a fabricante do iPhone procurou recentemente o Google, da Alphabet, para explorar a possibilidade de construir um modelo de IA personalizado que serviria como base para a nova Siri no ano que vem.
O Google já teria iniciado o treinamento de um modelo que poderia rodar nos servidores da Apple, disseram essas pessoas, que pediram anonimato por se tratar de discussões privadas.
Essa iniciativa faz parte de um esforço da Apple para recuperar o tempo perdido no setor de IA generativa, onde a empresa chegou tarde e teve dificuldades em ganhar relevância. No início deste ano, a Apple também considerou parcerias com a Anthropic PBC e a OpenAI, avaliando se o Claude ou o ChatGPT poderiam servir como o “novo cérebro” da Siri.
- iOS 26: Apple lança novo sistema operacional com visual translúcido e IA turbinada, mas Siri reformulada fica para depois
Atualmente, a Apple ainda está a semanas de tomar uma decisão sobre continuar usando seus próprios modelos internos para a Siri ou adotar uma solução de um parceiro — e ainda não definiu quem seria esse parceiro. Porta-vozes da Apple e do Google se recusaram a comentar.
Essa possível mudança de direção ocorre após atrasos em uma aguardada atualização da Siri, que permitiria executar comandos com base em dados pessoais e navegar inteiramente por voz nos dispositivos. A atualização estava prevista para esta primavera (nos EUA), mas foi adiada em um ano por dificuldades técnicas.
O fracasso levou a Apple a afastar o chefe de IA, John Giannandrea, do projeto da Siri. Agora, o projeto é supervisionado por Craig Federighi, responsável pelo software, e Mike Rockwell, criador do headset Vision Pro — ambos consideram o uso de tecnologias externas como uma possível solução.
- Mais de 300 horas de conversa em 21 dias: Veja como o ChatGPT, ou melhor, Lawrence, alimentou os delírios de um usuário
Originalmente, a atualização da Siri foi projetada com base na tecnologia desenvolvida pela equipe de Modelos Apple Foundation, que também criou os modelos de linguagem que funcionam localmente em dispositivos Apple, permitindo recursos como resumo de texto e criação de emojis personalizados.
Buscando corrigir as deficiências da Siri e lançar os recursos adiados, Federighi, Rockwell e a equipe de desenvolvimento corporativo da Apple, liderada por Adrian Perica, iniciaram reuniões com Anthropic e OpenAI para discutir possíveis acordos.
Internamente, a Apple está realizando uma competição para ver qual abordagem funcionará melhor. A empresa está desenvolvendo simultaneamente duas versões da nova Siri: uma chamada Linwood, que funciona com seus modelos, e outra, de codinome Glenwood, que funciona com tecnologia externa.
- Ferramentas de viagem com IA estão em toda parte: Mas será que elas realmente funcionam?
Executivos chegaram a considerar a Anthropic como a principal candidata à parceria, mas os termos financeiros exigidos pela empresa levaram a Apple a ampliar a busca e considerar outros parceiros. Ainda assim, a empresa não descartou continuar com seus próprios modelos.
Essas discussões são separadas de outros acordos voltados à integração de chatbots na Apple Intelligence. No ano passado, a Apple adicionou o ChatGPT como opção secundária para perguntas gerais feitas à Siri — uma área em que o assistente tem histórico de desempenho fraco. Tanto a Apple quanto o Google já sinalizaram publicamente planos para integrar o Gemini de forma semelhante.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/n/2/dFr110TciiQxTJio1Yrw/438380539.jpg)
Apesar da rivalidade entre Apple e Google nos setores de smartphones, sistemas operacionais e serviços, as empresas já mantêm uma parceria: o Google paga bilhões de dólares por ano para ser o mecanismo de busca padrão nos dispositivos da Apple. No entanto, esse acordo está sendo investigado pelo Departamento de Justiça dos EUA por possíveis violações antitruste e pode vir a ser desfeito.
As conversas sobre o uso do Google Gemini para alimentar a Siri ainda são exploratórias, sem negociações comerciais formais em andamento. O Google já fechou acordos semelhantes anteriormente e é responsável por boa parte das funcionalidades de IA nos celulares da Samsung.
Enquanto isso, a equipe de modelos de IA da Apple continua passando por turbulências. Em julho, o arquiteto-chefe da equipe, Ruoming Pang, deixou a empresa para ingressar na Meta, atraído por um pacote de US$ 200 milhões e um cargo sênior na nova unidade Superintelligence Labs.
- The information: Nvidia pede a fornecedores que suspendam produção do chip H20, diz site
Vários colegas seguiram Pang, e muitos dos que ainda permanecem na Apple estão procurando novas oportunidades — seja por causa da possível mudança para tecnologia de terceiros, seja para aproveitar ofertas milionárias de emprego.
Alguns líderes de engenharia de software chegaram a sugerir a substituição dos modelos usados não apenas na Siri, mas também em outros recursos de IA dos dispositivos Apple.
Essa ideia, no entanto, contraria a abordagem tradicional da Apple, que sempre buscou manter o controle dos recursos de IA que rodam diretamente nos aparelhos dos usuários, priorizando segurança e privacidade — como ocorre com as ferramentas de escrita da Apple Intelligence.
Ainda assim, esse plano não está sendo desenvolvido ativamente. No caso de uma parceria envolvendo a Siri, os modelos de IA de terceiros rodariam nos servidores do Private Cloud Compute da Apple, que utilizam chips da própria empresa para processamento remoto de IA. Isso significa que os modelos externos não rodariam diretamente nos dispositivos.
A Apple continua anos atrás de seus concorrentes em IA, e isso motivou a liderança a considerar diversas alternativas. Em uma recente reunião com todos os funcionários, o CEO Tim Cook afirmou que a Apple precisa “vencer na IA” e está aumentando seus investimentos.
Ele adotou um tom otimista, lembrando que a Apple raramente é a primeira a entrar em novos mercados — mas, quando entra, costuma oferecer um produto superior.
Durante uma conferência de resultados trimestrais na mesma semana, Cook se recusou a comentar sobre o uso de modelos de terceiros, dizendo que qualquer declaração revelaria os planos da empresa. No entanto, o próprio silêncio foi interpretado como sinal de que a Apple está, de fato, considerando seguir por esse caminho.
A Apple já começou a firmar parcerias para alguns recursos voltados ao consumidor e para uso interno. No sistema operacional iOS 26, a empresa está oferecendo uma opção do ChatGPT para geração de imagens, além de ter encerrado um projeto publicamente anunciado para desenvolver um sistema próprio de programação baseado em IA. Agora, a Apple utiliza o ChatGPT e o Claude para essas tarefas.
Paralelamente, o trabalho da equipe de Modelos Fundamentais da Apple continua. Recentemente, a empresa começou a testar seu primeiro modelo com um trilhão de parâmetros, um salto significativo em relação aos modelos atuais de 150 bilhões de parâmetros usados nos data centers da empresa.
Parâmetros são uma medida da complexidade e capacidade de aprendizado de modelos de inteligência artificial. Nesse aspecto, a Apple ainda está muito atrás dos líderes de IA — a OpenAI, por exemplo, já utiliza modelos com vários trilhões de parâmetros.
De qualquer forma, a Apple não tem planos de disponibilizar esse modelo mais avançado para os consumidores por enquanto. Pelo menos por ora, ele será utilizado apenas para fins de pesquisa.