6 月 2012

          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

« Lady GAGA part2 | メイン | 人間そっくりなロボットの存在意味 »

2010/12/24

コメント

フィード コメントフィードを購読すればディスカッションを追いかけることができます。

鍛冶 哲也

コンピュータやゲーム機の性能について、今やもう単に性能だけあげてもしかたなくって、その性能をどうやって、いかに使いこなすかというところにポイントが移っている。そんな内容の松本淳さんの記事、無駄に高度な技術という意味で、この投稿とどこかつながるような気がしました。
「スペックの時代は終わった、当面は」
http://mazmot.bloggers-network283.com/2010/12/%E3%82%B9%E3%83%9A%E3%83%83%E3%82%AF%E3%81%AE%E6%99%82%E4%BB%A3%E3%81%AF%E7%B5%82%E3%82%8F%E3%81%A3%E3%81%9F%E5%BD%93%E9%9D%A2%E3%81%AF.html


同じく松本さんの、3D CGをモーションキャプチャーで動かす、という記事にも人間の動きをトレースする技術という意味で何がしかの関連を感じてみました。
「凄い、としか言いようのないKinectでMikuMikuDance」
http://mazmot.bloggers-network283.com/2010/12/%E5%87%84%E3%81%84%E3%81%A8%E3%81%97%E3%81%8B%E8%A8%80%E3%81%84%E3%82%88%E3%81%86%E3%81%AE%E3%81%AA%E3%81%84kinect%E3%81%A7mikumikudance.html

Account Deleted

MikuMikuDanceにもの凄い可能性を感じたのは、たとえば映像表現をしたい人がああいった手法の応用で一気に軛から解き放たれるんじゃないかって思ったからなんですね。たとえばこれまでだったら予算の制約があり、時間の制約があり、その他無限なほどの制約がある中で限られた人しかプロデュースできなかった映像作品が、もっと気軽につくられると。しかし、ご紹介のロボットを見ていて気がついたのは、制作者だけが表現者ではない、ということなんですね。出演者、俳優やダンサーだって、それぞれの表現を形にしていく必要があるわけです。それは未来にはどんなふうになっていくんでしょうね。
そういえば、映画「ロード・オブ・ザ・リング」ではアンディ・サーキスが肉体としては登場しないのに重要な演技をしていたわけで…。やっぱり想像できません。

ドクベコ

 こんにちは。
 人型ロボットの場合、人間の動きを再現するというよりは、人間の身体的な特徴から決定される限界をあえて採用している、という点が現在は重要なんだろうなと思います。作ろうと思えば、肘と手首の間にもうひとつ関節を作ることもできるわけで、それで機能的ならそうしたっていいけれど、あえて人間らしさを目指す。
 その方向性の先に、これはぼくの希望ですけど、やがてはちゃんと人間らしい動き「しか」できないロボットができて、それを火星などに持ってゆく。地球にいる人がそれを脳波なりモーションキャプチャーなりで操作して動かして、火星からは視覚や音はもちろん、触感などのフィードバックが返ってくる。そういう代理観光みたいなことができたらいいなと。命の危険もないし、地球の施設にいって、ロボットとリンクしたデバイスを借りればいいだけとか。色々妄想が膨らんでしまいます。
 これが逆に人間より高度な動きをしすぎてしまうと、操作する側はじぶんっぽくない動きに興ざめしちゃったり(まあ、そのほうが楽しいという人もいるかも)、観光目的の場合はそういう遠隔体験のリアルさには皆シビアになったりするんじゃないかとか。重要なのは、人間の制約を踏襲した動作範囲をベースにしたロボット、という点で、観光目的以外にも、危険地域で人間が実際にとれる行動をシミュレーションしたり、それをたたき台にして生身の人間の行動計画を練ったり、そういうのが必要なシーンが出てくるのかも。
 そんなことを目標に考えると、無駄に高度な技術というよりは、まだまだ未実装なものが多くて、やることいっぱいな分野に見えてしきます。自立ロボットなどは作られず、結局は人間たちがたまに使うもうひとつの体として人型ロボットは利用されていくんじゃないですかね。

鍛冶 哲也

松本さんとドクベコさんのコメントから考えたのは、このHRP-4Cというロボットを制御する方法。松本さんのブログにあった、カメラの前で動く人間の動きを読み取って、その動きをコンピュータ上の3DキャラクターにトレースさせるKinectという仕組みを応用すれば。

自分の動きをロボットにトレースさせることはできそうですね。

ゲームの中で3Dキャラを動かすことは、いろんなシチュエーションをCGで創りだしてその中で身体を動かしながら疑似体験ができる。突拍子もない非現実を体験できる訳です。

しかしこのHRP-4Cというヤツはリアルな物理的存在ですからね。疑似体験のツールとして利用を考えるなら、ドクベコさんの火星旅行というのはかなりブッ飛んでますが、理にかなっています。

実用性という点から考えるなら、人間には危険すぎるような環境での作業の代行とか。そんな方向にいきそうですが、このHRP-4Cというのはそっちとも違う方向を目指していますからね。

ビジネスとして考えると、美空ひばりのコピーロボットにして地方公演させればそれなりに稼げるかも。握手会とかもセットで。美空ひばりなら激しいアクションも不要だからその点もぴったり。そんで本人が歌わなかった曲を歌わせたりして。

そういえばアメリカ人って有名人のそっくりさんが好きみたいですね。かなり昔、マリリン・モンローそっくりのロボットだが人形だかがフォークギター抱えて歌ってるのを見たような気がします。

鍛冶 哲也

自分の分身としてロボットを操り、その行動を疑似体験するというのは、去年流行った映画「アバター」を思い出しますね。それと、ブルース・ウィリスが主演したSF映画「サロゲート」とか。

疑似体験としては、分身側からの感覚フィードバックを自分の側がいかにリアルに感じられるか。没入感でいうと仮想世界をリアルに疑似体験するというのは「マトリックス」を思い出しますが。

こっちの感覚受信の方は、技術開発の面ではあんまり進んでないような気がします。バーチャルリアリティとか一時期、マスコミをにぎわしていましたけどね。こっちの方は、車の運転シミュレータとか空港管制のシミュレータとか軍事訓練用とかシミュレーションの分野で進んでいるみたいですね。

疑似体験って、身近なところでは、やっぱりゲームの世界が一番先をいってるんでしょうか。

映画とかマンガとか小説とかも疑似体験を目指してるっちゃ目指してるような気もします。

鍛冶 哲也

空港管制シミュレーションについては、羽田空港が滑走路を増設して航空機の発着数を増やすのにあたって、3分に1便とか、かなりの過密なスケジュールで離発着する飛行機を安全にさばくために、空港の管制官がシミュレーションの訓練をみっちりやってるというニュースを以前やっていました。

ちょっと怖い状況だなと感じました。人間が一度に処理できる情報量って限られているんで、何かトラブルがあった時に、いろんな情報を裁ききれるのかな、っていう心配。管制官のプレッシャーも相当なものでしょうね。大変そうだ。

鍛冶 哲也

ところで、あってるかどうか、わかりませんが、このHRP-4Cのような二足歩行ロボットで一番難しいのは、二本足で立ったり歩いたり動いたりする時のボディのバランスをとることなんではないかと想像しています。絶対に転ばないように、下半身を固定してしまえば、もっと激しいアクションをすることは恐らく難しくないのではないか。

開発者にとっては不本意かもしれないが、このHRP-4Cの実用化を考えてみると、“人間に似ているけど人間じゃない”点を活かすには、例えばケンタウロスのように下半身を四本足にしちゃうとか。或いは壁から上半身だけはえてるとか。或いは天井から逆さにぶら下がってるとか、ワイヤーで空中に浮かんでるとか。そういう意表をついたシチュエーションで、でも上半身だけはミョーに人間っぽく、話しもする。高級レストランで、「本日のおすすめメニュー」の説明するとかデパートで本日のセールの紹介をするとか。
 
なんか、人目を引くための設備というか、仕掛けというか、装飾というか、オブジェというか。そんな利用方法を想像してしまいますね。

ドクベコ

 鍛冶さんの実用例が本当になるかどうかも、「そうしたい」って思う人がいるかどうかですよね。
 こういう何に使ったらいいかわからない技術が活かされるのは、とある人が「以前からやりたいと思ってたことがこれで叶うじゃないか!」って結び付けてくれるからだと思うんですよ。ひいては、ぼくたちが日々どれだけ「ああしたい」「こうしたい」って妄想してるかということでもあって、それは人の数だけあって、ただし、どれが実現するかは、当事者の社会的な力や経済力に左右されるんだろうと思います。この辺りが現実の落とし所になってしまって、「実用性」を考えざるを得ないんだと思いますが、キネクトのように個人でも扱えるまでコストが下がると、日曜エンジニアの面々が思いもよらない方向に改造してゆくんだろうなー、と思います。
 自立ロボットの使い方としては、ディズニーのアトラクションで動かない人形を出したりひっこめたりしてるだけなのを、このロボット技術の部分活用で改善できたりしませんかねー。ルンバの技術と合わせて、狭いお化け屋敷の中をお化けロボットやゾンビロボットが追いかけてきたらすごく面白そうです。
 新しい技術を今の社会にすでにあるパズルのピースと置き換えるのか、ぼくたちが望んでる社会の姿を現実にしてくれるアイテムとするかで利用法のアイディアが変わりそうですね。世界中の人々がそれぞれ描いている未来世界ってどんなだろう? ってとこに関心がいっちゃいますね。

shinanoooji

未来の夢可能性迸る感性ミーム。

今100均嘗て1000万円開発費どの位掛かったのでしょうね^^。

鍛冶 哲也

開発費は約2億円程度と、こちらの記事にあります。
http://robot.watch.impress.co.jp/cda/news/2009/03/16/1665.html

ただし、ヒト型ロボット開発にかけてきた過去の技術開発も含めると、それははるかに膨大なものになるということが、こちらのインタビューで語られています。日本全体では数百億円とか
http://robot.watch.impress.co.jp/docs/column/review/20090716_299492.html

この記事へのコメントは終了しました。