(セッション表へ)

平成18年度 電気・情報関連学会中国支部第57回連合大会

部門: 23. ファジィ・AI・GA III
日時: 2006年10月21日(土) 13:00 - 14:05
部屋: 25号館 4階 22541室 (→地図)
座長: 宮原 哲浩 (広島市立大学 情報科学部 知能情報システム工学科)

23-12 (時間: 13:00 - 13:13)
題名双方向マンハッタンストリートネットワークのノード配置問題に対する局所探索法
著者*山下 浩司 (岡山理科大学大学院 工学研究科), 片山 謙吾, 南原 英生, 成久 洋之 (岡山理科大学 工学部 情報工学科)
Pagep. 180
Keyword可変深度探索, 波長分割多重, 双方向マンハッタンストリートネットワーク, 局所探索法
Abstract波長分割多重技術を利用した光波ネットワークに,マルチホップシステムがある.マルチホップシステムでは,その論理ノード配置によって,ネットワークの伝送効率は大きく変化する.そのため,発生するトラヒックに対して,ネットワークの性能が最良となるようなノード配置を見つけるアルゴリズムが求められている. 本研究では,マルチホップシステムである双方向マンハッタンストリートネットワークにおける最適ノード配置を求める問題を対象に,可変深度近傍探索のアイデアに基づく局所探索法を提案する.そして,提案した局所探索法の性能を評価するために,従来法である階層型Greedy+SA法と比較する.

23-13 (時間: 13:13 - 13:26)
題名Multiple Sequence Alignmentに対する Maximum Weight Trace法を用いた一解法
著者*上野 伸郎 (岡山理科大学大学院工学研究科), 片山 謙吾, 南原 英生, 成久 洋之 (岡山理科大学 工学部 情報工学科)
Pagep. 181
KeywordMultiple Sequence Alignment, Maximum Weight Trace 法, 貪欲法
Abstract本研究で対象とするのは,アミノ酸配列の多重配列アライメント (Multiple Sequence Alignment, MSA) である.MSAとは,アミノ酸配列を複数並べ,一致もしくは類似するアミノ酸が縦に揃うように隙間(ギャップ)を入れ整列させる解析方法である. MSAに対する形式化手法として Maximum Weight Trace(MWT)法がある。MWT法はMSA をグラフ問題として扱うことにより,広範囲にわたって配列の縦の関係の情報を保持することが可能になることから,有望なアプローチであると考えられる.本研究ではMSAに対してMWT法を用いた貪欲法に基づく一解法を提案する.

23-14 (時間: 13:26 - 13:39)
題名知覚情報の分割を有する強化学習エージェントの有効性
著者*金重 徹 (岡山理科大学大学院 工学研究科), 片山 謙吾, 南原 英生, 成久 洋之 (岡山理科大学 工学部 情報工学科)
Pagep. 182
Keyword強化学習, マルチエージェント, クリーンナップ問題
Abstract強化学習とは,エージェント自身が未知な環境において,試行錯誤を通して環境への適応を目指す学習制御の枠組みである.近年,強化学習は現実問題のような不確実性を含む環境においてエージェントが有効に対応できる手法として注目されている.また,マルチエージェント環境に対する手法として期待されている.しかし,マルチエージェント環境では,エージェント数の増加に伴い知覚する状態数が指数的に増加し,知覚する状態を保存しておく記憶領域の大きさ,また,その状態数の増加に伴う学習速度の遅さが問題になる.本稿では,それらの問題を改善するための手法を提案するとともに,クリーンナップ問題を対象とし本手法の有効性を検討する.

23-15 (時間: 13:39 - 13:52)
題名複数のタスクを行うマルチエージェント強化学習の報酬の与え方に関して
著者*太田 真由美, 金重 徹 (岡山理科大学大学院 工学研究科), 片山 謙吾, 南原 英生, 成久 洋之 (岡山理科大学 工学部 情報工学科)
Pagep. 183
Keyword強化学習, マルチエージェント, 協調, 報酬
Abstract マルチエージェント強化学習の研究では,協調の獲得を前提として,単一タスクの問題を対象にする場合がほとんどであるが,現実的な問題では複数のタスクが存在する場合が多い.  例えば,サッカーゲームを対象とする場合は,複数のタスクが連鎖的に存在しており,目標状態までのステップ数が膨大になるため,補助的な報酬を与える工夫も考えられているが,その影響など不明な点が多い.  そこで本研究では,複数タスクのクリーンナップ問題を対象に,報酬の与え方の違いによるマルチエージェント強化学習の特性に関して検討する.その結果,副目標達成時に報酬を与える場合でも良好な学習がなされ,かつエージェント間の協調も獲得できることを示す.

23-16 (時間: 13:52 - 14:05)
題名強化学習によるロボットの行動獲得に関する検討 〜LEGO MindStormsへの応用〜
著者*渡部 勇樹, 堀内 匡 (松江工業高等専門学校)
Pagep. 184
Keyword強化学習, MindStorms, 行動獲得, 迷路探索問題
Abstract強化学習は,報酬といわれる特別な入力を手がかりに,環境に適応した行動決定戦略を学習するシステムである.強化学習は現在,様々な分野での応用を目指して,近年盛んに研究が行われており,特にロボットの学習に多く試みられている.今回取り上げるLEGO社のロボット開発キットMindStormsは,多様な目的に応じた形態や機構にあわせ,容易に組み立てやプログラミング制御できる.そこで本研究では,このMindStormsを用いて,迷路探索問題を対象として,強化学習によるロボットの行動獲得について実験を行い,結果について考察する.