具体的には以下です。
- まず、Distributed Semantic Communicationというのがよくわかりません。従来のSemantic CommunicationがCentralizedであったわけでもないので、なにをもってDistributedであると主張しているのかわかりませんでした。
- また、Overviewでbenefitを書いているのですが、従来のSemantic Communicationと変わりないように思いました。
- 次に、ProtocolのほうもCommunication Protocolとしてどういう通信やアプリケーションを想定しているのかがわかりません。想定するシステムモデルが不明確です。
- このプロトコルでなにをしたいのかゴールが不明確であるために、Protocolの各手順自体の目的は記載されているものの、全体としてその手順を採用する妥当性も不明確になっています
私からのSuggestionとしては、
- 「Distributed Brainという新たなSemantic Communication Systemの提案」という体裁を止める。理由としては、コンセプトに対し、手法と実験評価が一貫性がとれない。
- 代わりに、「JEPA-aided Multi-modal ISAC Framework」を提案する。あくまでも通信フレームワークではなくセンシングフレームワークとする(手法及び実験との一貫性)。その上で、利点として主張するのは
- ISACにJEPAを導入し画像など他のmodalityとのsemanticsの融合を可能にし、センシング精度を向上
- 従来のMultimodal fusionと比べても、トラヒックが減らせる(要検証)←これが比較評価するべき通信に関わるメトリックの一つ
- 欠点としては、通信信号しか使わないISACと比べると、画像や点群を取得するためのトラヒック発生、および、画像や点群をEmbeddingするための計算がノード(カメラやLiDAR)で発生
- Node Selection ProtocolやEfficient Communication Protocolなどまだちゃんと考えられていないものは可能な限り省き、最小のコンポーネントで構成する。
今回投稿するのはISAC workshopなので、現状できていることをもとにISACのシナリオでストーリーを構築するべき。
前に私のさきがけ提案資料を共有したと思いますが、Distributed Brainなんていうのは、Fundingの提案書にプロジェクトの最終ゴールとして記載するようなレベルの話です。よって、今回はあくまでもChenの行った研究の範囲で、ストーリー構築するほうがよいでしょう。
最終的に従来技術との比較により
- Single-modal ISAC: 精度低い?
- Data-level Multimodal Fusion: 精度は高まるが画像や点群を直接集めるためトラヒック多い。