TechFlowの報道によると、3月17日、テザー(Tether)のCEOパオロ・アルドゥイーノ氏が明らかにしたところでは、テザーAIチームが新バージョンのQVAC Fabricをリリースし、クロスプラットフォーム対応のBitNet LoRAフレームワークを統合しました。これにより、コンシューマー向けGPUおよびスマートフォン上で10億パラメーター規模の大規模言語モデル(LLM)の学習および推論が可能になります。
新バージョンのQVAC Fabric LLMは、BitNet LoRAによるファインチューニングおよび推論を、AMD、Intel、Apple Metalおよびモバイル向けGPUという多様なプラットフォームで初めて実現しました。フラッグシップデバイスにおいて、GPUによる推論速度はCPU比で2〜11倍の高速化を達成し、全精度モデルと比較して最大90%のメモリ使用量削減を実現しています。テザーチームは、Pixel 9、Galaxy S25、iPhone 16などのフラッグシップスマートフォン上で、最大38億パラメーター規模のモデルのファインチューニングを完了しており、さらにiPhone 16では最大130億パラメーター規模のモデルのファインチューニングも実現しています。関連コードはGitHub上でオープンソース化されています。




