産業技術総合研究所が、2009年3月に発表した美少女型ヒューマノイドロボットHRP-4C。名前は未夢(ミーム)。
人間に似せた動きができるようにという開発コンセプトのロボット。人間くさい動きや表情の実現を目指したレプリカント。
そのHRP-4C未夢(ミーム)が、歌と踊りを披露したそうだ。Every Little Thingの「出逢った頃のように」という歌をVOCALOIDの合成音声で歌いながら、4人の人間のバックダンサーを従えて歌いながら踊るパフォーマンスをデジタルコンテンツEXPO2010で見せた。
動画を見たが、確かにその動きは人間っぽい。速い動きは苦手だそうだ。重心を大きく動かすようなダイナミックな動作も無理っぽい。そりゃそうだ。転ばないように重心を計算しながら動きを制御しているのだろうから。計算量は大きいのだろう。それでも、そのパフォーマンスはこれまで見たことがないような人間くささを見せている。
動き始めのスピードと、動きを止める時の減速の程度、その加速度をうまく調節して人間らしさを演出しているのだと思う。機械的な、作動→停止、という等速度運動ではなく、動作において加速→減速、という制御をしているんだと思うのだが。
それは、3D CGのキャラクターが踊るゲームの映像を連想させるのだ。CGなのに気持ちが悪いくらい人間っぽい動きを再現する。数年前にゲーム売り場のデモ画面でその映像を目にした時、思わず立ち止まってまじまじと画面を見つめてしまったほど、その人間くささはインパクトがあった。その映像はたぶんバンダイナムコのTHE iDOLE M@STERというゲームのものだった。
どんなかというと、こんな感じ。THE iDOLM@STER Live For you! 『Colorful Days』 IM@S ALLSTARS (YouTube)
CPUの計算力がなければ実現できなかったような動きなんじゃないかな。
話しは戻ってHRP-4C未夢(ミーム)。この踊る美少女人形、金をかけて研究開発しているんだろうけど、一体、何に使うのだろう?今のところは、人寄せパンダでしかないように思うが。人間のように動くとはいっても、料理や掃除をする訳ではなく、レストランでウエイトレスをできる訳でもなく。
HRP-4C未夢(ミーム)の利用シーンを想像するのはなかなかに難しい。彼女の就職先はどんなところがいいのだろう。人間らしさを追求するためにつくられたヒューマノイドなのだから、何らかの接客業なんだろうな。
まあ、プレゼンみたいなことはできるだろう。商品やサービスやシステムの仕組みを説明するような、同じ言葉を何度も何度も繰り返す、展示会でのコンパニオンのような役割ならできそうだ。美術館や博物館でのガイドとか。運転免許試験場での手続きの説明役とか。
う~む。なんだか、あんまり実用的ではないような気がするが。まあでも、何に使うのかわからない無駄な技術力というものも、あっていいんじゃないか。そう思う。
なんか、江戸時代の、お茶を運ぶからくり人形みたいな感じだな。
実用性のない、意味不明な、無駄に高度な技術ってやつは、なんだかムズムズするような感覚を刺激する。もしかすると、それはワクワクするような気持ちなのかもしれないが。
鉄腕アトムのように、ロボットが人間のように振舞うためには、まだまだ時間が必要であるようだ。
ちなみにこのHRP-4C、手の大きさが普通の人のサイズよりも大きく、また、腕も長い。これは、身振り手振りを強調するために、そのように設計されているようだ。その意味ではプロトタイプな訳だ。
今回は人間のダンサーをバックに従えていたが、同じ顔、同じプロポーションのHRP-4Cが20台そろって踊っていたとしたら、それはどんな光景だったであろうか。
それは、何かしらの嫌悪感をもよおすシーンではないだろうか。
ITメディアより デジタルコンテンツEXPO:「すごい・・・・」美少女ロボ「未夢」のダンスに驚嘆 ~美少女ロボット「HRP-4C 未夢(ミーム)」が披露した歌と踊りは想像以上のなめらかさ。目の当たりにした人からは、ため息がもれていた。動画あり。
産業技術総合研究所が開発した美少女ヒューマノイド ロボットHRP-4C (「夢みるアンドロイド」より)
コンピュータやゲーム機の性能について、今やもう単に性能だけあげてもしかたなくって、その性能をどうやって、いかに使いこなすかというところにポイントが移っている。そんな内容の松本淳さんの記事、無駄に高度な技術という意味で、この投稿とどこかつながるような気がしました。
「スペックの時代は終わった、当面は」
http://mazmot.bloggers-network283.com/2010/12/%E3%82%B9%E3%83%9A%E3%83%83%E3%82%AF%E3%81%AE%E6%99%82%E4%BB%A3%E3%81%AF%E7%B5%82%E3%82%8F%E3%81%A3%E3%81%9F%E5%BD%93%E9%9D%A2%E3%81%AF.html
同じく松本さんの、3D CGをモーションキャプチャーで動かす、という記事にも人間の動きをトレースする技術という意味で何がしかの関連を感じてみました。
「凄い、としか言いようのないKinectでMikuMikuDance」
http://mazmot.bloggers-network283.com/2010/12/%E5%87%84%E3%81%84%E3%81%A8%E3%81%97%E3%81%8B%E8%A8%80%E3%81%84%E3%82%88%E3%81%86%E3%81%AE%E3%81%AA%E3%81%84kinect%E3%81%A7mikumikudance.html
投稿情報: 鍛冶 哲也 | 2010/12/24 03:07
MikuMikuDanceにもの凄い可能性を感じたのは、たとえば映像表現をしたい人がああいった手法の応用で一気に軛から解き放たれるんじゃないかって思ったからなんですね。たとえばこれまでだったら予算の制約があり、時間の制約があり、その他無限なほどの制約がある中で限られた人しかプロデュースできなかった映像作品が、もっと気軽につくられると。しかし、ご紹介のロボットを見ていて気がついたのは、制作者だけが表現者ではない、ということなんですね。出演者、俳優やダンサーだって、それぞれの表現を形にしていく必要があるわけです。それは未来にはどんなふうになっていくんでしょうね。
そういえば、映画「ロード・オブ・ザ・リング」ではアンディ・サーキスが肉体としては登場しないのに重要な演技をしていたわけで…。やっぱり想像できません。
投稿情報: Account Deleted | 2010/12/24 04:55
こんにちは。
人型ロボットの場合、人間の動きを再現するというよりは、人間の身体的な特徴から決定される限界をあえて採用している、という点が現在は重要なんだろうなと思います。作ろうと思えば、肘と手首の間にもうひとつ関節を作ることもできるわけで、それで機能的ならそうしたっていいけれど、あえて人間らしさを目指す。
その方向性の先に、これはぼくの希望ですけど、やがてはちゃんと人間らしい動き「しか」できないロボットができて、それを火星などに持ってゆく。地球にいる人がそれを脳波なりモーションキャプチャーなりで操作して動かして、火星からは視覚や音はもちろん、触感などのフィードバックが返ってくる。そういう代理観光みたいなことができたらいいなと。命の危険もないし、地球の施設にいって、ロボットとリンクしたデバイスを借りればいいだけとか。色々妄想が膨らんでしまいます。
これが逆に人間より高度な動きをしすぎてしまうと、操作する側はじぶんっぽくない動きに興ざめしちゃったり(まあ、そのほうが楽しいという人もいるかも)、観光目的の場合はそういう遠隔体験のリアルさには皆シビアになったりするんじゃないかとか。重要なのは、人間の制約を踏襲した動作範囲をベースにしたロボット、という点で、観光目的以外にも、危険地域で人間が実際にとれる行動をシミュレーションしたり、それをたたき台にして生身の人間の行動計画を練ったり、そういうのが必要なシーンが出てくるのかも。
そんなことを目標に考えると、無駄に高度な技術というよりは、まだまだ未実装なものが多くて、やることいっぱいな分野に見えてしきます。自立ロボットなどは作られず、結局は人間たちがたまに使うもうひとつの体として人型ロボットは利用されていくんじゃないですかね。
投稿情報: ドクベコ | 2010/12/25 05:06
松本さんとドクベコさんのコメントから考えたのは、このHRP-4Cというロボットを制御する方法。松本さんのブログにあった、カメラの前で動く人間の動きを読み取って、その動きをコンピュータ上の3DキャラクターにトレースさせるKinectという仕組みを応用すれば。
自分の動きをロボットにトレースさせることはできそうですね。
ゲームの中で3Dキャラを動かすことは、いろんなシチュエーションをCGで創りだしてその中で身体を動かしながら疑似体験ができる。突拍子もない非現実を体験できる訳です。
しかしこのHRP-4Cというヤツはリアルな物理的存在ですからね。疑似体験のツールとして利用を考えるなら、ドクベコさんの火星旅行というのはかなりブッ飛んでますが、理にかなっています。
実用性という点から考えるなら、人間には危険すぎるような環境での作業の代行とか。そんな方向にいきそうですが、このHRP-4Cというのはそっちとも違う方向を目指していますからね。
ビジネスとして考えると、美空ひばりのコピーロボットにして地方公演させればそれなりに稼げるかも。握手会とかもセットで。美空ひばりなら激しいアクションも不要だからその点もぴったり。そんで本人が歌わなかった曲を歌わせたりして。
そういえばアメリカ人って有名人のそっくりさんが好きみたいですね。かなり昔、マリリン・モンローそっくりのロボットだが人形だかがフォークギター抱えて歌ってるのを見たような気がします。
投稿情報: 鍛冶 哲也 | 2010/12/25 15:21
自分の分身としてロボットを操り、その行動を疑似体験するというのは、去年流行った映画「アバター」を思い出しますね。それと、ブルース・ウィリスが主演したSF映画「サロゲート」とか。
疑似体験としては、分身側からの感覚フィードバックを自分の側がいかにリアルに感じられるか。没入感でいうと仮想世界をリアルに疑似体験するというのは「マトリックス」を思い出しますが。
こっちの感覚受信の方は、技術開発の面ではあんまり進んでないような気がします。バーチャルリアリティとか一時期、マスコミをにぎわしていましたけどね。こっちの方は、車の運転シミュレータとか空港管制のシミュレータとか軍事訓練用とかシミュレーションの分野で進んでいるみたいですね。
疑似体験って、身近なところでは、やっぱりゲームの世界が一番先をいってるんでしょうか。
映画とかマンガとか小説とかも疑似体験を目指してるっちゃ目指してるような気もします。
投稿情報: 鍛冶 哲也 | 2010/12/25 15:37
空港管制シミュレーションについては、羽田空港が滑走路を増設して航空機の発着数を増やすのにあたって、3分に1便とか、かなりの過密なスケジュールで離発着する飛行機を安全にさばくために、空港の管制官がシミュレーションの訓練をみっちりやってるというニュースを以前やっていました。
ちょっと怖い状況だなと感じました。人間が一度に処理できる情報量って限られているんで、何かトラブルがあった時に、いろんな情報を裁ききれるのかな、っていう心配。管制官のプレッシャーも相当なものでしょうね。大変そうだ。
投稿情報: 鍛冶 哲也 | 2010/12/25 15:52
ところで、あってるかどうか、わかりませんが、このHRP-4Cのような二足歩行ロボットで一番難しいのは、二本足で立ったり歩いたり動いたりする時のボディのバランスをとることなんではないかと想像しています。絶対に転ばないように、下半身を固定してしまえば、もっと激しいアクションをすることは恐らく難しくないのではないか。
開発者にとっては不本意かもしれないが、このHRP-4Cの実用化を考えてみると、“人間に似ているけど人間じゃない”点を活かすには、例えばケンタウロスのように下半身を四本足にしちゃうとか。或いは壁から上半身だけはえてるとか。或いは天井から逆さにぶら下がってるとか、ワイヤーで空中に浮かんでるとか。そういう意表をついたシチュエーションで、でも上半身だけはミョーに人間っぽく、話しもする。高級レストランで、「本日のおすすめメニュー」の説明するとかデパートで本日のセールの紹介をするとか。
なんか、人目を引くための設備というか、仕掛けというか、装飾というか、オブジェというか。そんな利用方法を想像してしまいますね。
投稿情報: 鍛冶 哲也 | 2010/12/25 16:04
鍛冶さんの実用例が本当になるかどうかも、「そうしたい」って思う人がいるかどうかですよね。
こういう何に使ったらいいかわからない技術が活かされるのは、とある人が「以前からやりたいと思ってたことがこれで叶うじゃないか!」って結び付けてくれるからだと思うんですよ。ひいては、ぼくたちが日々どれだけ「ああしたい」「こうしたい」って妄想してるかということでもあって、それは人の数だけあって、ただし、どれが実現するかは、当事者の社会的な力や経済力に左右されるんだろうと思います。この辺りが現実の落とし所になってしまって、「実用性」を考えざるを得ないんだと思いますが、キネクトのように個人でも扱えるまでコストが下がると、日曜エンジニアの面々が思いもよらない方向に改造してゆくんだろうなー、と思います。
自立ロボットの使い方としては、ディズニーのアトラクションで動かない人形を出したりひっこめたりしてるだけなのを、このロボット技術の部分活用で改善できたりしませんかねー。ルンバの技術と合わせて、狭いお化け屋敷の中をお化けロボットやゾンビロボットが追いかけてきたらすごく面白そうです。
新しい技術を今の社会にすでにあるパズルのピースと置き換えるのか、ぼくたちが望んでる社会の姿を現実にしてくれるアイテムとするかで利用法のアイディアが変わりそうですね。世界中の人々がそれぞれ描いている未来世界ってどんなだろう? ってとこに関心がいっちゃいますね。
投稿情報: ドクベコ | 2010/12/25 18:30
未来の夢可能性迸る感性ミーム。
今100均嘗て1000万円開発費どの位掛かったのでしょうね^^。
投稿情報: shinanoooji | 2011/01/08 10:32
開発費は約2億円程度と、こちらの記事にあります。
http://robot.watch.impress.co.jp/cda/news/2009/03/16/1665.html
ただし、ヒト型ロボット開発にかけてきた過去の技術開発も含めると、それははるかに膨大なものになるということが、こちらのインタビューで語られています。日本全体では数百億円とか
http://robot.watch.impress.co.jp/docs/column/review/20090716_299492.html
投稿情報: 鍛冶 哲也 | 2011/01/08 12:02