TechFlowより、3月30日、Jinshi Dataの報道によると、アリババの千問(Qwen)は、全モダリティ大規模言語モデル「Qwen3.5-Omni」の公開を発表しました。「Qwen3.5-Omni」シリーズには、Plus、Flash、Lightの3種類のサイズのInstruct版が含まれており、256Kトークンの長文脈をサポートします。また、音声入力には10時間以上、720p(1FPS)の音声・動画入力には400秒以上をサポートします。本モデルは、膨大なテキストおよび視覚データに加え、1億時間以上の音声・動画データを用いたネイティブなマルチモダリティ事前学習を実施しており、優れた全モダリティ認識・生成能力を示しています。Qwen3-Omniと比較して、Qwen3.5-Omniは多言語対応能力が大幅に向上し、113の言語および方言の音声認識と、36の言語および方言の音声生成をサポートします。
Web3業界の深掘り報道に専念し潮流を洞察
投稿したい
取材依頼
リスク提示:本サイトのすべての内容は投資助言ではなく、いかなるシグナル配信・取引勧誘サービスも行いません。中国人民銀行など十部委の「仮想通貨取引投機リスクの防止と処置に関する通知」に基づき、リスク意識の向上をお願いいたします。お問い合わせ / support@techflowpost.com 琼ICP备2022009338号




