Appleは、iPhone16シリーズおよびiPhone16 Proシリーズに加え、M4シリーズ搭載デバイスに大容量フラッシュメモリを搭載し、そこに大規模言語モデル(LLM:Large Language Models)を格納することを計画している模様です。
これが実現した場合、多数のApple製品で生成系AIである「Apple GPT」が利用可能になると期待されます。
■3行で分かる、この記事のポイント
1. Appleは、大容量フラッシュメモリにLLMを格納することを計画している。
2. 開発中という噂の生成系AIである「Apple GPT」は、このLLMを利用するものかもしれない。
3. iPhone16シリーズとM4搭載Macが、この機能を搭載する可能性がある。
A18シリーズとM4シリーズに大容量フラッシュメモリを組み合わせか
AppleはiOS18でSiriを大幅に改良し、LLMをベースにしたApple GPTに対応するとの噂があります。
TechPowerUpの報道通り、今後発売されるApple製品もしくはA18シリーズおよびM4シリーズにLLMを格納した大容量フラッシュメモリが組み合わせられた場合、iPhone16シリーズおよびiPhone16 Proシリーズと、M4搭載iPad、M4シリーズ搭載MacでApple GPTがオフラインでも利用可能になるかもしれません。
Appleは、コードネームJ614とJ616の新型MacBookを開発しているとBloombergのマーク・ガーマン記者が述べていましたので、これらは本機能に対応するM4シリーズを搭載するMacBookの可能性があります。
Photo:Apple Hub/X
(FT729)
Source: iPhone Mania
iPhone16/16 Pro用Apple GPTが大容量フラッシュメモリで実現!?