Inteligência da Apple: Tudo que você precisa saber sobre o modelo e serviços de IA da Apple.

Caso você tenha atualizado recentemente para um modelo mais novo de iPhone, provavelmente percebeu que a Apple Intelligence está presente em alguns dos seus aplicativos mais utilizados, como Mensagens, Mail e Notas. A Apple Intelligence (também abreviada como AI) apareceu no ecossistema da Apple em outubro de 2024, e está aqui para ficar, enquanto a Apple compete com Google, OpenAI, Anthropic e outros para construir as melhores ferramentas de inteligência artificial.

O que é Apple Intelligence?

Créditos da Imagem: Apple

Executivos de marketing de Cupertino deram o nome de Apple Intelligence à sua nova tecnologia, descrevendo-a como “a IA para o restante de nós.” A plataforma foi projetada para aproveitar as capacidades já desenvolvidas pela inteligência artificial generativa, como geração de texto e imagem, para aprimorar as funcionalidades existentes. Assim como outras plataformas, incluindo ChatGPT e Google Gemini, a Apple Intelligence foi treinada em grandes modelos de informação. Esses sistemas utilizam aprendizado profundo para estabelecer conexões, sejam elas de texto, imagem, vídeo ou música.

A oferta de texto, impulsionada por um modelo de linguagem grande (LLM), é apresentada como Ferramentas de Escrita. Este recurso está disponível em vários aplicativos da Apple, incluindo Mail, Mensagens, Pages e Notificações. Ele pode ser utilizado para fornecer resumos de textos longos, realizar correções e até mesmo escrever mensagens em seu lugar, utilizando conteúdos e prompts de tom.

A geração de imagens também foi integrada, embora de forma um pouco menos fluida. Usuários podem solicitar à Apple Intelligence a criação de emojis personalizados (Genmojis) no estilo da Apple. O Image Playground, por sua vez, é um aplicativo independente de geração de imagens que utiliza prompts para criar conteúdo visual que pode ser utilizado em Mensagens, Keynote ou compartilhado nas redes sociais.

A Apple Intelligence também representa uma mudança esperada para a Siri. O assistente inteligente foi pioneiro nessa área, mas foi em grande parte negligenciado nos últimos anos. Agora, a Siri está integrada de forma muito mais profunda nos sistemas operacionais da Apple; por exemplo, em vez do ícone familiar, os usuários verão uma luz brilhante ao redor da borda da tela do iPhone enquanto ele está em funcionamento.

Ainda mais importante, a nova Siri opera em diferentes aplicativos. Isso significa que, por exemplo, você pode pedir à Siri para editar uma foto e em seguida inseri-la diretamente em uma mensagem de texto. Essa experiência fluida era algo que o assistente não oferecia anteriormente. A consciência em tela permite que a Siri utilize o contexto do conteúdo que você está visualizando no momento para fornecer uma resposta apropriada.

À medida que se aproximava a WWDC 2025, muitos esperavam que a Apple apresentasse uma versão ainda mais avançada da Siri, mas isso deverá ser adiado.

Evento Techcrunch

San Francisco
|
27 a 29 de outubro de 2025

“Como já compartilhamos, continuamos nosso trabalho para entregar as funcionalidades que tornam a Siri ainda mais pessoal,” afirmou Craig Federighi, Vice-Presidente Sênior de Engenharia de Software da Apple, na WWDC 2025. “Esse trabalho precisa de mais tempo para atingir o nosso padrão de alta qualidade, e estamos ansiosos para compartilhar mais sobre isso no próximo ano.”

Essa versão da Siri, que ainda não foi lançada, deverá ser capaz de entender o “contexto pessoal”, como suas relações, rotinas de comunicação e mais. No entanto, segundo um relatório da Bloomberg, a versão em desenvolvimento desse novo assistente está muito cheia de erros para ser lançada, o que explica seu atraso.

Na WWDC 2025, a Apple também apresentou um novo recurso de IA chamado Visual Intelligence, que auxilia os usuários a realizar buscas de imagens para itens que visualizam enquanto navegam. Além disso, foi revelado um recurso de Tradução Ao Vivo que pode traduzir conversas em tempo real nos aplicativos Mensagens, FaceTime e Telefone.

Espera-se que o Visual Intelligence e a Tradução Ao Vivo estejam disponíveis mais tarde em 2025, quando o iOS 26 for lançado ao público.

Quando foi apresentada a Apple Intelligence?

Após meses de especulações, a Apple Intelligence foi o destaque na WWDC 2024. A plataforma foi anunciada em meio a uma enxurrada de notícias sobre IA generativa de empresas como Google e OpenAI, gerando preocupações sobre o fato de que a gigante da tecnologia, que geralmente é discreta, havia perdido a chance de entrar nessa nova tendência tecnológica.

Contrariamente a essas especulações, no entanto, a Apple tinha uma equipe trabalhando em uma abordagem que se mostrou convincente. Embora houvesse um certo brilho nas demonstrações — a Apple sempre gosta de fazer um espetáculo — a Apple Intelligence representa uma visão bastante pragmática dessa categoria.

A Apple Intelligence não é uma funcionalidade independente. Trata-se de uma integração nas ofertas existentes. Embora represente um exercício de branding, a tecnologia conduzida por um modelo de linguagem grande (LLM) operará em segundo plano. Na perspectiva do consumidor, a tecnologia se manifestará principalmente na forma de novos recursos para aplicativos já existentes.

Durante o evento do iPhone 16, que ocorreu em setembro de 2024, mais detalhes foram revelados. A Apple anunciou uma série de funcionalidades impulsionadas por IA que chegariam a seus dispositivos, como tradução no Apple Watch Series 10, busca visual no iPhone, entre outras melhorias nas capacidades da Siri. A primeira onda de Apple Intelligence foi lançada no final de outubro, como parte das atualizações do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1.

As funcionalidades foram lançadas inicialmente em inglês americano. Posteriormente, a Apple adicionou localizações para inglês australiano, canadense, neozelandês, sul-africano e britânico. O suporte para idiomas como chinês, inglês (Índia), inglês (Cingapura), francês, alemão, italiano, japonês, coreano, português, espanhol e vietnamita irá chegar em 2025.

Quem terá acesso à Apple Intelligence?

Créditos da Imagem: Darrell Etherington

A primeira onda da Apple Intelligence chegou em outubro de 2024 por meio das atualizações do iOS 18.1, iPadOS 18 e macOS Sequoia 15.1. Essas atualizações incluíram ferramentas de escrita integradas, limpeza de imagens, resumos de artigos e um novo método de entrada de texto para a experiência reformulada da Siri. Uma segunda onda de recursos tornou-se disponível como parte do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, abrangendo Genmoji, Image Playground, Visual Intelligence, Image Wand e integração com ChatGPT.

Essas funcionalidades são gratuitas, desde que você possua um dos seguintes dispositivos:

  • Todos os modelos do iPhone 16
  • iPhone 15 Pro Max (A17 Pro)
  • iPhone 15 Pro (A17 Pro)
  • iPad Pro (M1 e posteriores)
  • iPad Air (M1 e posteriores)
  • iPad mini (A17 ou posteriores)
  • MacBook Air (M1 e posteriores)
  • MacBook Pro (M1 e posteriores)
  • iMac (M1 e posteriores)
  • Mac mini (M1 e posteriores)
  • Mac Studio (M1 Max e posteriores)
  • Mac Pro (M2 Ultra)

É importante notar que apenas as versões Pro do iPhone 15 estão tendo acesso, devido a limitações no chipset do modelo padrão. Supõe-se, no entanto, que toda a linha do iPhone 16 será capaz de executar a Apple Intelligence quando for lançada.

Como funciona a IA da Apple sem uma conexão de internet?

Créditos da Imagem: Apple

Quando você faz uma pergunta a serviços como GPT ou Gemini, sua consulta é enviada para servidores externos para gerar uma resposta, o que requer uma conexão de internet. No entanto, a Apple adotou uma abordagem de modelo pequeno e personalizado para o treinamento.

O principal benefício dessa abordagem é que muitas dessas tarefas tornam-se muito menos intensivas em recursos e podem ser realizadas no dispositivo. Isso ocorre porque, em vez de depender de uma abordagem abrangente como a que alimenta plataformas como GPT e Gemini, a empresa compilou conjuntos de dados internamente para tarefas específicas, como, por exemplo, compor um e-mail.

No entanto, essa estratégia não se aplica a tudo. Consultas mais complexas utilizarão a nova oferta de Computação em Nuvem Privada. A empresa agora opera servidores remotos com base em Apple Silicon, que, segundo ela, permite oferecer o mesmo nível de privacidade que seus dispositivos de consumo. Se uma ação está sendo realizada localmente ou via nuvem, isso será invisível para o usuário, a menos que seu dispositivo esteja offline, momento em que consultas remotas resultarão em erro.

Apple Intelligence com aplicativos de terceiros

Créditos da Imagem: Didem Mente/Anadolu Agency / Getty Images

Houve muito alvoroço sobre a pendente parceria da Apple com a OpenAI antes do lançamento da Apple Intelligence. No entanto, acabou que o acordo não foi tanto sobre impulsionar a Apple Intelligence, mas sim sobre oferecer uma alternativa para funcionalidades que não são contempladas pela Apple. Isso representa um reconhecimento tácito de que construir um sistema de modelo pequeno possui suas limitações.

A Apple Intelligence é gratuita, assim como o acesso ao ChatGPT. Entretanto, aqueles com contas pagas na última plataforma terão acesso a funcionalidades premium que os usuários gratuitos não têm, incluindo consultas ilimitadas.

A integração com o ChatGPT, que será lançada no iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, possui dois papéis principais: complementar a base de conhecimento da Siri e adicionar opções às Ferramentas de Escrita existentes.

Com o serviço ativado, certas perguntas farão com que a nova Siri solicite ao usuário a aprovação para acessar o ChatGPT. Exemplos de perguntas que podem exibir essa opção incluem receitas e planejamento de viagens. Os usuários também podem incentivar diretamente a Siri a “perguntar ao ChatGPT.”

Compose é a outra funcionalidade principal do ChatGPT disponível através da Apple Intelligence. Os usuários podem acessá-la em qualquer aplicativo que suporte a nova funcionalidade de Ferramentas de Escrita. O Compose adiciona a capacidade de redigir conteúdos baseados em um prompt. Isso se junta às ferramentas de escrita já existentes, como Estilo e Resumo.

Sabe-se com certeza que a Apple planeja se associar a serviços adicionais de IA generativa. A empresa praticamente confirmou que o Google Gemini está na sua lista de parcerias futuras.

Desenvolvedores podem construir sobre os modelos de IA da Apple?

Na WWDC 2025, a Apple anunciou o que denomina estrutura de Modelos Fundamentais, que permitirá que desenvolvedores acessem seus modelos de IA mesmo sem conexão à internet.

Isso torna mais viável que desenvolvedores integrem funcionalidades de IA em seus aplicativos de terceiros, aproveitando os sistemas existentes da Apple.

“Por exemplo, se você está se preparando para uma prova, um aplicativo como o Kahoot pode criar um quiz personalizado a partir de suas anotações para tornar o estudo mais interessante,” disse Federighi na WWDC. “E como isso ocorre utilizando modelos no dispositivo, isso acontece sem custos de API na nuvem… Não poderíamos estar mais animados sobre como desenvolvedores podem construir sobre a inteligência da Apple para oferecer novas experiências que são inteligentes, disponíveis quando você está offline, e que protegem sua privacidade.”

Quando a Siri receberá sua próxima atualização?

Espera-se que a Apple apresente uma experiência da Siri nova e aprimorada em 2026, o que já é considerado um avanço tardio em comparação com os concorrentes. Isso pode ser um golpe para a Apple, mas, para acelerar o desenvolvimento, pode não haver alternativa senão se associar a uma empresa externa para impulsionar a nova Siri. Rumores indicam que a Apple está em negociações avançadas com o Google, seu principal concorrente em hardware de smartphones.

Related posts

Novos iPhones utilizam o chip sem fio Apple N1—e provavelmente começaremos a vê-lo em toda parte.

Apple lança o iPhone Air ultrafino por R$999 no Brasil.

Fabricante de acessórios vai pagar à Nintendo após exibir maquetes ilícitas do Switch 2 na CES.