LED通信事業プロジェクト エンジニアブログ

無線技術へのAI応用例を紹介

記事更新日 2025年4月1日


はじめに

前々回前回までMWC2025のレポートをお届けしましたが、読んで頂けましたでしょうか?読んでいただいた方であればわかっていただけたと思うのですが、携帯電話の通信技術って、もはやAIの技術と一体化しつつあるんですよね。ですから、次世代(6G)に関しては、最初からAIネイティブになるように設計されていますし、6Gユースケースの分類には最初からAIが定義されています。

6Gのスタートは2030年と予定されていますが、そこが遅れるのではないか?というのが、多くの関係者の予測です。その「遅れ」というのは、6Gの規格制定、技術確立が遅れるというよりも、これまでの世代より各携帯電話事業者の6Gの採用が(大幅に)遅れるという意味合いの方が強いです。その理由として「5Gの立ちあげは事実上失敗しており、5Gの普及が大幅に遅れているから」ということが挙げられます。5Gの失敗の理由はいろいろありすぎてここで書くことはしませんが、とにかく5Gの普及は当初計画より遅れており、各社とも設備投資の回収が出来ていません。そして、投資の回収が遅れるということは、6Gの開始も遅れ、5Gの寿命が否が応でも延びるということを意味します。

一方で、AI、特に生成AIの進化は日々めざましいものがあります。ドッグイヤーどころか、生き馬の目を抜く恐怖の世界。つい最近までアメリカAI最強、NVIDIA最強だったのに、中国DeepSeekR1の発表だけで、NVIDIAの株価が急落するなど、この業界の変化のスピードは恐ろしいものがあります(それでも、NVIDIAは依然として最強ですが)。かく言うこのブログも、最近はGoogleのGemini Code Assistを利用して書いていまして、LLMの進化に日々感嘆しているところです。

携帯電話の話に戻りますが、AIは恐ろしい速度で進化し社会に浸透しているのに、携帯インフラへのAI投入を、いつ始まるかわからない6Gまで待つわけにはいきません。ですから、当然のことながらファーウエイ、エリクソンなどのインフラベンダーは、5Gの時点で携帯ネットワークへAI技術を投入していくことを発表しています。

ただ、今各社が発表している5GにおけるAI技術の多くは、前回のMWC記事で紹介したようなサービスに関わるものか、運用や最適化などに関するものがほとんどで、根元からネットワークとAIが統合しているものとは言えません。表現は悪いですが「アプリケーションレベルで、AIが人間の代替をしているようなもの」とも言えるものです。もちろん、そういったAIは見栄えも良いですし、マネタイズや効率化といった直接お金に関わる部分でもあるため、展示会でも大々的に発表されますし、世の中での普及も早いと思いますが。

でも、我々は無線技術者です。上記の様な派手なAIの使い方も結構ですが、「システムに統合されて無線に直接関わるようなAI」にも興味があります。地味だけど周波数利用効率を上げるようなAIにも魅力を感じます。ただ、なかなか展示会や報道だけを追っていても、そういった情報は入ってきません。なので、メーカーが発表している技術資料で何か良いもはないか?と探してみましたところ、ファーウエイのリサーチの中に、そういった記事があることを発見しました。そこには、5G無線技術へのAIの適応手段のようなものが書いてありました。

AIという単語がトレンドだとはいえ、無線のみに効果が出るような(お金に直接繋がらないような)地味なAIに興味がある人は多くはないでしょう。でも、あえてそれを記事にするのも我々のブログっぽいですよね?というわけで、今回はファーウエイが発表している「AIを5Gの無線技術に応用する例」をいくつか紹介したいと思います。

しかし、記事を読んで頂く上で、少々問題がありまして・・・ 今回紹介する内容は、一般の方にはちょっと難しいんですよね。なるべくわかりやすく書くつもりではありますが、それでも無線技術とか5Gとかの知識が無いと理解は難しいと思います。申し訳ございませんが、その辺はご理解頂いた上で、お読み頂けると幸いです。

## AI in 5G無線技術

ここから、AIを5Gの無線技術にどのように適応するかについて、例を2つほど挙げさせていただきます。これらは、5Gに適用が考えられている技術ではありますが、あえて一般的な無線通信にも(当然6Gにも)適用できるものを選んでいます。どちらも現状は、「こういったことが考えられていますよ」という段階のものであり、5Gの世代内に実装されるかどうかは定かではありません。しかも、読んで頂くとわかると思いますが、計算量、計算速度の面でかなり実装が面倒そうな技術でもあります。ただ、直近での実現可能性はともかくとして、将来はこういったものがAI化されていく、というのは間違いないと思います。

AIベースのIQコンステレーション

最初にコンステレーションのAI化を紹介します。4G、5Gの通信にはOFDMが使われています。OFDMは、速度の遅いの「狭帯域」のチャンネルを、同時に大量に送信することで「広帯域」化して、高速通信を行うという方式です。さらに、OFDMの一つ一つのチャンネルをみると、その中身はQAM(直角位相振幅変調)という方式を使って通信します。QAMの日本語訳はいかついですが、優しく言えば「デジタルの位相変調」ですね。QAMの面白いところは、位相に情報を載せる位相変調なのに、その波形を作るには、振幅を変更したSinとCosの波の合成(足し算)を行えば良いってことです。そうです、なんとQAMは位相変調なのに、波形生成時に位相は変えませんcosとsinの2つの波の振幅だけを変えるんです。2つ波長を足し合わせると位相が変わるんです。ウソだと思う方は、自分で計算してみてください。そして、その時の元の波形となる、Cos波の振幅をX軸に、Sin波の振幅をY軸に取ってプロットしたものを、IQコンステレーション図(図1)と呼んでいます。QAMは、電波として送られる波形だけをみると位相に情報を載せているのですが、実際の中身としては2つの波の振幅に情報を載せていることになるんです。

fig.1
図1 IQコンステレーション図

この図、通信を勉強したことのある人なら、必ず見たことがある図だと思います。先ほども書いたとおり、cosとsinの振幅、つまり横軸と縦軸の値に情報が載るため、結果としてコンステレーション図上の点の位置が、送信データとなります。図1は16QAMという方式の図です。16QAMでは、2つの振幅を使って16個の点から1つを選ぶようになっています。16個の点にはそれぞれ0~15までの番号が振られていて、振幅が指し示した位置の”点の番号”がデータになるわけです。(ちなみに、0~15なので4ビットのデータとなります。)

で、この図の中の各点の位置ですが、送信時は図1の様にきっちり等間隔になるように、振幅を調整して送ります。しかし、受信時にはノイズ等の影響もあって振幅が変化するため、受信した点の位置は送信時の位置からずれることがあります。これは、物理的性質なので避けることはできません。でも大丈夫です。このQAMの良い点は、そのずれが一定の範囲内であれば同一点として見なすようになっていることです。受信時の実測値に誤差があっても、下の図2のオレンジ色の四角の範囲内であればいわゆる「マージンの範囲内」であり、データとしては正しく受信出来たと見なすことになります。もちろん、誤差がマージンの範囲を超えればエラーになりますが。

fig.2
図2 QAMの誤差とマージンの範囲

さて、ここからが本題です。この誤差が熱雑音のような完全にランダムな要素が原因で発生する場合を考えます。完全ランダムな誤差を「偶然誤差」と呼びます。偶然誤差の場合、誤差はあっても小さい可能性の方が高く、大きな誤差の出る可能性は高くありません※1。これをコンステレーション図に置き換えると、実測点の位置は確率的に「基準点」付近が最も確率が高く、「基準点」から離れるほど発生確率は低くなっていく(図3左)と言うことができます。QAMの設計もこの考えに基づいており、QAMの基準点が各点とも等間隔に配置されているのもそのためです。偶然誤差であるならば、どの基準点においても、実測値の最頻値は基準点と等しく、各点の誤差の発生確率(誤差の大きさ)も等しいと考えられるからです。

fig.3
図3 偶然誤差と系統誤差の違い

しかし、実際に携帯電話で通信した場合の誤差は、先ほどの偶然誤差だけでなく、例えば無線増幅器の特性による誤差だったり、電波の伝搬環境に依存する誤差だったりが含まれます。このような、測定条件によって変わる誤差を「系統誤差」と呼びますが、この系統誤差は必ずしもランダムではありません。一定量、プラスに振れたりマイナスに振れたりという、ある程度傾向がある値となります。そのため、系統誤差が含まれる場合、実測点の最頻値は必ずしも基準点と一致せず、すこしずれることがあります(図3右)。しかも、この最頻値のずれは、各基準点毎に大きさや方向が異なる可能性が考えられます。

系統誤差により、コンステレーション図の最頻値が基準点とずれてしまった場合、従来の等間隔のマージンの範囲(判定範囲)は最適とは言えず、エラーが出やすくなり、結果的に通信速度が低下します。この系統誤差ですが、無線機等の機器の特性による誤差だけであれば常に一定であることが期待できますが、電波伝搬環境によるものが加わると、環境によって誤差量が変化するため、事前に予測することは困難です。

そこで、AIの登場です。AIがリアルタイムでコンステレーションを監視して、その時々の系統誤差を予測し、基準点の位置やマージンの範囲を適切に動かして、エラー率を低下させます。エラー率が低下すれば、エラー再送が減るだけでなく、より高次元のQAMが使える場合もあり、結果として通信速度の向上が見込めるようになります。つまり、AIにより、QAMの精度を上げて、周波数利用効率を上げることが出来るのです。例えば、図4のように、受信の際にコンステレーション図の基準点を変更しマージンの範囲を調整することで、エラー率を下げることが可能になります。

fig.4
図4 AIによるコンステレーション図

AIベースのOFDM波形合成

さて、次もOFDMですが、今度はもっと波形に近い話になります。先ほども書きましたがOFDMは、速度の遅いの「狭帯域」のチャンネルを、同時に大量に送信することで「広帯域」化して、高速通信を行うという方式です。通信機はその小さなチャンネルを同時に出力しなければなりません。つまり、小さなチャンネルを全て合算※2して、その合計を無線機から出力しているんですよね。

fig.5
図5 OFDM波形生成

各チャンネルの波形は送信データにより異なるため、その合算結果であるOFDM送信波形はランダムです。ですから、当然その振幅もランダムになります。小さい振幅の時もあれば、大きい振幅の時もあります。これは、確率の問題です。例えば、10個のサイコロを同時に振ったときの合計値を考えてみましょう。サイコロの期待値は3.5ですから、何千回、何万回と試行した場合の合計値の平均は3.5×10でおよそ35になるはずです。ですが、各試行を見てみると、1x10で計10の可能性もあるし、6x10で計60になるときもあるでしょう。OFDMの振幅も同じです。全部の波形を足してみると、振幅が0になる瞬間もありますし、全部の波のを足した最大値になる瞬間もあるでしょう。

そんな振幅の大小に対応するために、OFDMの送信機は非常に高性能なものが使われます。しかし、それでも一定以上の振幅になってしまうと、送信機が出力できる範囲を超え、超えてしまった部分は欠損し、送信できません。当然、送りたい波形が変わってしまうため、エラーにもなってしまいます。一般的にそれをクリッピングと呼んでいます。

fig.6
図6 OFDMクリッピング

ピーク振幅(電力)の大きさは、送信機の設計に影響を与えます。先ほど書いたとおり、送信機の出力上限が高いほどクリッピングは発生しづらくなりますが、送信機は最大出力上限が高いほど大きく高価になり、また消費電力も大きくなります。しかし、高出力の送信機ほど低電力域での性能が下がるため、結局は通信の平均電力に合わせた送信機を選ぶのが最適となります。そのため、ピーク電力の影響を見るための数値として、ピーク電力と平均電力の比であるPAPR(Peak to Average Power Ratio)という値が使われます。送信機の性能は平均電力に依存するわけですから、PAPRの値が高い程、クリッピングが発生しやすいというわけです。

クリッピングを減らすには、PAPRを低くすることが最も良い方法です。しかし、OFDMの波形は、先ほど書いた通り、様々なデータが載った複数チャンネルの合成結果なので、高いピークの発生は避けられません。とはいえ、クリッピングは減らしたいので、何らかの方法でPAPRは低くしたい・・・

そこで考え出されたのが、トーンリザベーションという技術です。トーンリザベーションを簡単に言えば、PAPRを下げるため”だけ”のチャンネルを敢えて作って、それによってPAPRを下げようという技術です。あるチャンネルを、データは載せない「捨てチャンネル」にします。その代わり、他のデータが載ったチャンネルを合計したときに、その捨てチャンネルを足せばPAPRが下がるような「逆位相」的な波形を送ります。それにより、PAPRを強引に下げるという技術です。

もちろん、捨てチャンネルではデータを送ることが出来ないので、帯域全体としての通信速度は下がります。しかし、エラー率の低下や、消費電力の低下というメリットの方が、チャンネルを捨てることによるデメリットを上回る訳です。特に、端末側では、高性能な送信機を使えませんし、電力消費にも厳しいため、大きな送信機は使えません。ですから、トーンリザベーションは端末側の送信であるアップリンクにおいて特に効果的であると言えるでしょう。

前置きが長くなりましたが、ここでAIの登場です。このトーンリザベーションを実現するための波形を作るのは、結構難しいことが知られています。従来は、繰り返しの計算によりトーンリザベーションの最適な波形を生成していました。しかし、AIを使用すれば、これまでよりも最適なトーンリザベーションの波形を作成することができるようになり、PAPRの値をより効果的に低下させることができるようになる、という訳です。そして、PAPRを下げる事が出来れば、エラー率が低下し、通信速度が向上するというわけです。

まとめ

いかがでしたか?AIを無線通信技術に応用する例を2つ紹介しました。どちらも物理層レベルの内容をAI化するという話であり、地味なのであまり世の中では紹介されることのない例だと思います。今回のAI化はDeep Learningレベルまでで実装できそうですけれども、将来的はLLMレベルの大規模AIを通信に適用させることもあるでしょう。言えるのは、今後も今回のような物理層から、MWCで紹介されたようなアプリケーションレイヤーまで、AIで効率化できるものなら、なんでもAI化されていく、というのは間違いないであろうということです。

ただ、そんな世界が来てしまうと、「理論で緻密にアルゴリズムを作る」って作業っていうのは不要になるのでしょうか?DLにしてもLLMにしても、中身はニューラルネットワークであり、理論とは関係無く学習は行われますし。そうなっちゃうと、それはそれで寂しい気もしますけどね・・・

(担当M)

※1; 一般的には、偶然誤差の発生確率は正規分布に従うととされている。

※2; 内部的には、一つ一つのチャンネルの波形を足していくのではなく、逆高速フーリエ変換(IFFT)という計算で合算する。

参考文献

Communication of Huawei Research Issue 7(2024)
Communication of Huawei Research Issue 5(2023)