<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Whisper on M1KE BL0G</title><link>https://www.m1ke.org/tags/whisper/</link><description>Recent content in Whisper on M1KE BL0G</description><generator>Hugo -- gohugo.io</generator><language>ja-jp</language><copyright>mike</copyright><lastBuildDate>Fri, 24 Apr 2026 20:57:39 +0900</lastBuildDate><atom:link href="https://www.m1ke.org/tags/whisper/index.xml" rel="self" type="application/rss+xml"/><item><title>音声系の技術メモ</title><link>https://www.m1ke.org/p/%E9%9F%B3%E5%A3%B0%E7%B3%BB%E3%81%AE%E6%8A%80%E8%A1%93%E3%83%A1%E3%83%A2/</link><pubDate>Fri, 24 Apr 2026 20:57:39 +0900</pubDate><guid>https://www.m1ke.org/p/%E9%9F%B3%E5%A3%B0%E7%B3%BB%E3%81%AE%E6%8A%80%E8%A1%93%E3%83%A1%E3%83%A2/</guid><description>&lt;img src="https://www.m1ke.org/p/%E9%9F%B3%E5%A3%B0%E7%B3%BB%E3%81%AE%E6%8A%80%E8%A1%93%E3%83%A1%E3%83%A2/sound.png" alt="Featured image of post 音声系の技術メモ" /&gt;&lt;h2 id="背景"&gt;背景&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;JetsonでOfflineかつリアルタイムの会話を試した時のメモ&lt;/li&gt;
&lt;li&gt;記憶がフレッシュなうちに備忘録として残す&lt;/li&gt;
&lt;li&gt;特に音周りの技術は初めてだったので、用語を整理した&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="用語--技術"&gt;用語 / 技術&lt;/h2&gt;
&lt;h3 id="会話の組み立て"&gt;会話の組み立て&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;LLM
&lt;ul&gt;
&lt;li&gt;Large Language Model&lt;/li&gt;
&lt;li&gt;膨大なテキストデータを学習し、人間のように自然な文章を生成・理解するAI技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Llama.cpp
&lt;ul&gt;
&lt;li&gt;Gemma4をサーバー化するのに使用&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/ggml-org/llama.cpp" target="_blank" rel="noopener"
&gt;https://github.com/ggml-org/llama.cpp&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Gemma 4
&lt;ul&gt;
&lt;li&gt;Googleが開発した2026年4月時点で最新のEdge LLM&lt;/li&gt;
&lt;li&gt;今回は、量子化されたQ4_K_M.ggufを使用&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://huggingface.co/unsloth/gemma-4-E2B-it-GGUF" target="_blank" rel="noopener"
&gt;https://huggingface.co/unsloth/gemma-4-E2B-it-GGUF&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="音声発話"&gt;音声発話&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;TTS
&lt;ul&gt;
&lt;li&gt;Text to Speech&lt;/li&gt;
&lt;li&gt;テキストを音声に変換する技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;piper-plus
&lt;ul&gt;
&lt;li&gt;高速・高品質なニューラルテキスト音声合成 (TTS) システム&lt;/li&gt;
&lt;li&gt;英語版のpiperを日本人がforkしたリポジトリ&lt;/li&gt;
&lt;li&gt;今回は日本語のTTSに使用&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;VITS
&lt;ul&gt;
&lt;li&gt;Conditional Variational Autoencoder with Adversarial Learning for End-to-End Text-to-Speech&lt;/li&gt;
&lt;li&gt;piper-plusのモデルの名前&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="音声認識"&gt;音声認識&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;STT
&lt;ul&gt;
&lt;li&gt;Speech to Text&lt;/li&gt;
&lt;li&gt;音声をテキストに変換する技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;ASR
&lt;ul&gt;
&lt;li&gt;automatic speech recognition&lt;/li&gt;
&lt;li&gt;音声認識技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;LID
&lt;ul&gt;
&lt;li&gt;language identification&lt;/li&gt;
&lt;li&gt;言語識別&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;SER
&lt;ul&gt;
&lt;li&gt;speech emotion recognition&lt;/li&gt;
&lt;li&gt;音声感情認識&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;AED
&lt;ul&gt;
&lt;li&gt;audio event detection&lt;/li&gt;
&lt;li&gt;音響イベント検出&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;AEC （分類）
&lt;ul&gt;
&lt;li&gt;audio event classification&lt;/li&gt;
&lt;li&gt;音響イベント分類&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Speaker identification / Speaker verification
&lt;ul&gt;
&lt;li&gt;Speaker Identification（話者識別）&lt;/li&gt;
&lt;li&gt;Speaker Verification（話者照合/認証）&lt;/li&gt;
&lt;li&gt;違いは、「誰であるか特定する（1対N）」か、「主張された本人か確認する（1対1）」かという点&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;speech enhancement
&lt;ul&gt;
&lt;li&gt;「音声を綺麗にする技術」の総称&lt;/li&gt;
&lt;li&gt;ノイズ除去、残響除去、帯域拡張など&lt;/li&gt;
&lt;li&gt;タスク: 「音声 + ノイズ」→「音声」&lt;/li&gt;
&lt;li&gt;サブtopics:
&lt;ul&gt;
&lt;li&gt;Speech Denoising（ノイズ除去）
&lt;ul&gt;
&lt;li&gt;背景ノイズの除去&lt;/li&gt;
&lt;li&gt;例：エアコン、車、カフェの雑音など&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Dereverberation（残響除去）
&lt;ul&gt;
&lt;li&gt;残響、リバーブの除去&lt;/li&gt;
&lt;li&gt;部屋の反射音を取り除く&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Bandwidth Extension（BWE／帯域拡張）
&lt;ul&gt;
&lt;li&gt;狭帯域音声を高音質化&lt;/li&gt;
&lt;li&gt;例：電話音声（8kHz）→ 高音質音声（48kHz）&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Declipping
&lt;ul&gt;
&lt;li&gt;クリッピング歪みの修復&lt;/li&gt;
&lt;li&gt;音割れした音声の復元&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Packet Loss Concealment
&lt;ul&gt;
&lt;li&gt;パケットロスの補完&lt;/li&gt;
&lt;li&gt;通信で欠落した部分を補間&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Codec Artifact Removal
&lt;ul&gt;
&lt;li&gt;圧縮による劣化の修復&lt;/li&gt;
&lt;li&gt;例：MP3、AACなどの圧縮ノイズ除去&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Source separation
&lt;ul&gt;
&lt;li&gt;Speech Separationは音源分離の技術&lt;/li&gt;
&lt;li&gt;タスク: 「音声A + 音声B」→「音声A」と「音声B」&lt;/li&gt;
&lt;li&gt;lib:
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/deezer/spleeter" target="_blank" rel="noopener"
&gt;https://github.com/deezer/spleeter&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/Anjok07/ultimatevocalremovergui" target="_blank" rel="noopener"
&gt;https://github.com/Anjok07/ultimatevocalremovergui&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Audio tagging
&lt;ul&gt;
&lt;li&gt;Audio taggingは、音声データ内の特定の音響イベントやシーン（会話、音楽、環境音など）を自動または手動で識別し、ラベル（タグ）を付ける技術&lt;/li&gt;
&lt;li&gt;音声を「セリフ」「BGM」などに分類できる&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;KWS
&lt;ul&gt;
&lt;li&gt;Keyword Spotting&lt;/li&gt;
&lt;li&gt;「OK Google」などのような、キーワード認識技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Kotoba Whisper
&lt;ul&gt;
&lt;li&gt;日本語に強いWhisper&lt;/li&gt;
&lt;li&gt;今回は、tiny版のGGML版の量子化されたq5を使用&lt;/li&gt;
&lt;li&gt;最速で動かすため、Greedy decodingとBeam Searchを調整した&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Whisper.cpp
&lt;ul&gt;
&lt;li&gt;whisper.cppは音声データを読み込んでテキスト文章に変えてくれるソフト&lt;/li&gt;
&lt;li&gt;Kotoba Whisperをサーバー化するのに使用&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/ggerganov/whisper.cpp" target="_blank" rel="noopener"
&gt;https://github.com/ggerganov/whisper.cpp&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;sherpa
&lt;ul&gt;
&lt;li&gt;次世代KaldiとONNX Runtimeを活用した軽量な音声処理ツールボックス&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/k2-fsa/sherpa-onnx" target="_blank" rel="noopener"
&gt;https://github.com/k2-fsa/sherpa-onnx&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Kaldi
&lt;ul&gt;
&lt;li&gt;Kaldi Speech Recognition Toolkit&lt;/li&gt;
&lt;li&gt;長らく音声認識のデファクトスタンダードツールとして利用されていたC++ライブラリ&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;VOSK
&lt;ul&gt;
&lt;li&gt;エッジで動く音声認識ツールキット&lt;/li&gt;
&lt;li&gt;日本語モデルは、small: 48M、big: 1GBが用意されている&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;SenseVoice
&lt;ul&gt;
&lt;li&gt;ASR、LID、SER、AEC（分類）、AEDを含む音声理解能力を備えた音声基盤モデル&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/FunAudioLLM/SenseVoice/tree/main" target="_blank" rel="noopener"
&gt;https://github.com/FunAudioLLM/SenseVoice/tree/main&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="音認識"&gt;音認識&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;VAD
&lt;ul&gt;
&lt;li&gt;Voice Activity Detection&lt;/li&gt;
&lt;li&gt;発話区間検出のための技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Silero VAD
&lt;ul&gt;
&lt;li&gt;高性能で軽量（約2MB）なオープンソースのVADモデル&lt;/li&gt;
&lt;li&gt;CPUで1ms以下で動作する高速性を持ち、WebRTC VADよりも高精度で、ノイズの多い環境でも音声を正確に検知 (according to the AI)&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;PCM
&lt;ul&gt;
&lt;li&gt;Pulse Code Modulation：パルス符号変調&lt;/li&gt;
&lt;li&gt;非圧縮・高品質: 音波を一定周期でサンプリングし、量子化してデータ化するため、原音に忠実&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="音の精度向上"&gt;音の精度向上&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;PipeWire
&lt;ul&gt;
&lt;li&gt;Linuxのマルチメディアサーバー&lt;/li&gt;
&lt;li&gt;AEC（キャンセル）やNS、AGCの機能がある&lt;/li&gt;
&lt;li&gt;&lt;code&gt;aec_method=webrtc&lt;/code&gt;を今回は使用した&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;AEC （キャンセル）
&lt;ul&gt;
&lt;li&gt;acoustic echo cancellation&lt;/li&gt;
&lt;li&gt;スピーカーから出た周り込みを消す技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;NS
&lt;ul&gt;
&lt;li&gt;Noise Suppression&lt;/li&gt;
&lt;li&gt;扇風機、キーボード、エアコンなどの雑音を減らす技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;AGC
&lt;ul&gt;
&lt;li&gt;Automatic Gain Control&lt;/li&gt;
&lt;li&gt;声などの音量を自動調整する技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="音の理解向上"&gt;音の理解向上&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;Punctuation
&lt;ul&gt;
&lt;li&gt;意味は句読点で、句読点や記号を自動で補うこと&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Speaker Diarization
&lt;ul&gt;
&lt;li&gt;録音された音声データから「いつ、誰が話したか（Who spoke when?）」を特定し、発言ごとに分割・分類する技術&lt;/li&gt;
&lt;li&gt;いわゆる話者分離&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="aiモデルの処理速度向上"&gt;AIモデルの処理速度向上&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;LLMの量子化
&lt;ul&gt;
&lt;li&gt;Quantization&lt;/li&gt;
&lt;li&gt;モデルのパラメータを高精度な数値（16/32bit浮動小数点）から低精度な数値（4/8bit整数）に変換し、モデルサイズを大幅に軽量化・高速化する技術&lt;/li&gt;
&lt;li&gt;精度低下を最小限に抑えつつ、少ないVRAM（GPUメモリ）で動作させ、安価なハードウェアでの推論を可能&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;ONNX
&lt;ul&gt;
&lt;li&gt;Open Neural Network Exchangeの意味&lt;/li&gt;
&lt;li&gt;異なるAIフレームワーク間でモデルを共有・実行するためのフォーマット&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;OpenMP
&lt;ul&gt;
&lt;li&gt;C/C++のマルチスレッド並列処理を簡単に書くための仕組み&lt;/li&gt;
&lt;li&gt;共有メモリ環境での並列プログラミングを支援する技術&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="双方向会話"&gt;双方向会話&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;Full Duplex
&lt;ul&gt;
&lt;li&gt;Full Duplex（全二重）音声技術は、AI対話システムにおいて、ユーザーとAIが「話しながら聞く（同時双方向）」ことを可能にする技術&lt;/li&gt;
&lt;li&gt;従来の「話して、待って、聞く」というターンベースの音声対話とは異なり、人間同士のような自然な相槌や発話のオーバーラップを実現する&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;GPT Realtime
&lt;ul&gt;
&lt;li&gt;リアルタイムで低遅延の会話操作を処理するように設計された音声入力、音声出力の会話システム&lt;/li&gt;
&lt;li&gt;Function ToolやMCPも使える&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;j-moshi
&lt;ul&gt;
&lt;li&gt;日本語版のmoshi&lt;/li&gt;
&lt;li&gt;同時双方向的な特徴をモデル化できるfull-duplex音声対話システム&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;personaplex
&lt;ul&gt;
&lt;li&gt;real-time, full-duplex speech-to-speech conversational model&lt;/li&gt;
&lt;li&gt;システムプロンプトを入れる事ができる&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://github.com/NVIDIA/personaplex" target="_blank" rel="noopener"
&gt;https://github.com/NVIDIA/personaplex&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="処理速度向上"&gt;処理速度向上&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;見える化
&lt;ul&gt;
&lt;li&gt;わかりにくい状態を見て分かる形にすること&lt;/li&gt;
&lt;li&gt;例えば、処理している事がわかる用にインジケータを出さないと処理速度が遅く感じた&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;非同期
&lt;ul&gt;
&lt;li&gt;処理の完了を待っている間に、別の処理を進める仕組み&lt;/li&gt;
&lt;li&gt;応答性とスループットを最大化する手法&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;マルチスレッド化
&lt;ul&gt;
&lt;li&gt;計算タスクを複数コアで並列処理する仕組み&lt;/li&gt;
&lt;li&gt;応答性とスループットを最大化する手法&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;CPU Affinity
&lt;ul&gt;
&lt;li&gt;処理ごとにCPUのCoreを分離する技術&lt;/li&gt;
&lt;li&gt;複数の重い処理がありOSのスケジューラーに邪魔されず処理したい時に使う&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;CPU clock scaling
&lt;ul&gt;
&lt;li&gt;OSが消費電力の削減やパフォーマンスの向上のために CPU の周波数を上げ下げする技術&lt;/li&gt;
&lt;li&gt;Jetsonでは性能と消費電力・発熱のバランスを取るためのCPU周波数制御をしている&lt;/li&gt;
&lt;li&gt;今回はこれをOffにした&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;Producer-Consumerパターン
&lt;ul&gt;
&lt;li&gt;データを生成する「プロデューサー」と処理する「コンシューマー」の間にキュー（Queue）を挟み、非同期で処理を行う設計パターン&lt;/li&gt;
&lt;li&gt;タスクキュー、ジョブキュー、メッセージキューなど色々な呼び方がある&lt;/li&gt;
&lt;li&gt;デカップリングの一種&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;TinyML
&lt;ul&gt;
&lt;li&gt;超低消費電力・小型のデバイス上で機械学習を動かす技術&lt;/li&gt;
&lt;li&gt;数KB〜数MB程度のメモリしかない小さなチップ上で、音声認識・異常検知・画像分類などを行うAI&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="調査結果"&gt;調査結果&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;言語認識
&lt;ul&gt;
&lt;li&gt;量子化されたGemma4 on GPU がよかった&lt;/li&gt;
&lt;li&gt;マルチモーダル機能とreasoningは無効化した&lt;/li&gt;
&lt;li&gt;遅延は0.1sほどだった&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;音声認識
&lt;ul&gt;
&lt;li&gt;速度と精度の観点からだと&lt;/li&gt;
&lt;li&gt;量子化されたWhisper tiny on GPU &amp;gt; SenseVoice &amp;gt; VOSK&lt;/li&gt;
&lt;li&gt;遅延は1sほどだった&lt;/li&gt;
&lt;li&gt;ただし、AndroidのSpeechRecognizerの方が精度が良かった&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;発話区間検出
&lt;ul&gt;
&lt;li&gt;Silero VADが精度もよく速度もよかった&lt;/li&gt;
&lt;li&gt;強度のしきい値の調整が必要&lt;/li&gt;
&lt;li&gt;CPUでも遅延はほぼなし&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;スピーカーの回り込み対策
&lt;ul&gt;
&lt;li&gt;PipewireのAEC（キャンセル）が性能がよかった&lt;/li&gt;
&lt;li&gt;また、音の強度の調整とqueue処理でbarge-inが可能だった&lt;/li&gt;
&lt;li&gt;遅延はほぼなし&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;音声発話
&lt;ul&gt;
&lt;li&gt;piper-plusが日本語も出せて良かった&lt;/li&gt;
&lt;li&gt;ただし、音質はあまりよくはなかった&lt;/li&gt;
&lt;li&gt;CPUでも遅延はほぼなし&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="結論"&gt;結論&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;会話のレスポンスまでの遅延は約1秒ほどだったので人と話している感じだった&lt;/li&gt;
&lt;li&gt;量子化技術がすごく、以外にリアルタイムかつオフラインで会話が可能だった&lt;/li&gt;
&lt;li&gt;System promtとFunction toolが使える日本語の高速Full Duplexが来たら強いと思った&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="参考文献"&gt;参考文献&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class="link" href="https://qiita.com/GeneLab_999/items/1229564ffaf9779f37f5" target="_blank" rel="noopener"
&gt;[1分でわかる]Speech Enhancementってなんだ？音源分離との違いと、その概念編 #音声AI - Qiita&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://arxiv.org/html/2511.02269v1" target="_blank" rel="noopener"
&gt;Energy-Efficient Hardware Acceleration of Whisper ASR on a CGLA&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://learn.microsoft.com/ja-jp/azure/foundry/openai/how-to/realtime-audio?tabs=keyless%2Clinux&amp;amp;pivots=ai-foundry-portal" target="_blank" rel="noopener"
&gt;Azure OpenAI で音声とオーディオに GPT Realtime API を使用する - Microsoft Foundry | Microsoft Learn&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class="link" href="https://www.convergence-lab.com/blog/2025-06-11-zipformer/" target="_blank" rel="noopener"
&gt;音声認識AIモデル ZipFormer - Convergence Lab.&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>