Executando verificação de segurança...
2

Bah eu que não sou fã da Apple, eles estao mandando muito bem no hardware.

Acho que eles estão prevendo um movimento para rodar LLMs localmente e preparando o meio de campo pra isso.

Experimentando com colegas é o Apple Silicon M4 hardware mais prático de rodar uma LLM local

Carregando publicação patrocinada...
2

Prevendo não, eles estão correndo contra o atraso do Apple Intelligence e acho que estão tentando encaixar um modelo que sirva para a maioria das tarefas simples e não sobrecarregar os servidores.

Imagino que a IA integrada em tudo, e em milhões de dispositivos exija muito processamento do servidor deles, e por isso não entregaram ainda.

1

Rodar LLMs local já é uma realidade desde o M1, e tambem iPhones a partir do 15.

hoje já rodam LLMs locais para alguns usos, por ex o Playground e algumas ferramentas de edição/reescrita/melhoria de texto