本日の備忘録/萬物照應

 スエズ運河の件は、運河の通行が再開されたということでとりあえず一段落ついたというところ、今となってはいささか出遅れてしまった映像ではあるけれど、実際に事が起こったのはたぶん絶妙のタイミング、舟の持ち主さんはケンブリッジ大学の講師(a Cambridge University tutor)なのだそうだけれど、「週明けの講義、このネタで雑談は決まりだな」くらいのことは絶対に考えたんだろうなぁ^^;。

 

 《研究》は《情報》と入れ替えても通じてしまいそうな。「情報」にはさしあたり「SNS上の」との限定を加えておくべきかどうかは、ヒトそれぞれか。

 

 あと、押さえておくべき小ネタとして、「スーパームーンが救ったスエズ運河の座礁船」(WSJ)がある。

 3月28日夜にはスーパームーンの影響で、エバーギブン号が浅瀬に乗り上げた23日の満潮時よりも約50センチ潮位が高くなっていた。救助チームにとって最大のチャンスが近づいていた。

(中略)

 潮が引いて、船はゆっくり動き始めた。現場では夜明けと共に「アラー・アクバル」(神は偉大なり)と歓声を上げるクルーの姿が映像に残っている。

 遭難船引き揚げの専門家ニック・スローン氏によると、大潮による何センチかの潮位上昇が決定的な違いとなり、数千トンの浮力が加わってエバーギブン号を浮かせることができたという。

 スーパームーンとなると、見かけのサイズがデカくなる話題ばかりだったわけだけれど、これで今後数年は使えそうな蘊蓄小ネタができたわけだ^^;。

 小ネタといえば、「ユリ・ゲラー氏 スエズ運河の“座礁船曲げ”に失敗 英紙通じ世界に念力協力呼びかけたが…」(東スポ)なんていうのもあったのだった\(^o^)/。懐かしい名前をひさしぶりに思い出したよ。ひさしぶりついでに、「小林秀雄 講演 ユリ・ゲラーの念力」(N GO、YouTube) などもどうか。

ふろく

 上にもマして雑な話。

 BBCの日本語版チャンネルから。

 ロイターの日本語版チャンネルから。

 共同通信のチャンネルから。

 並べて比べて何かひと言、ということになれば、出羽守的な発言になるのは必定。というわけで、ここもそういうアレだということになる。

 まず何よりもパッと見、同じ出来事を扱っているとは思えない違いが再生時間の差。BBCのが1:25、Reutersのが1:57であるのに対して共同通信社のものは0:37だ。共同通信のには「スエズの座礁船、脱出に成功 23日以来の運航再開へ」(共同通信)という記事へのリンクが張られているから、ヴィデオだけでは自立した報道ではないということかもしれない、と思うことにしたいところなのだけれど、実際に記事を読んでもBBCやReutersのヴィデオが伝えてくれているような情報は得られない。

 「これだから日本のメディアはぁ~」とすぐに話を展開してもたぶんそう大きくは外れないだろうとついつい思ってしまうところなのだけれど、新聞などであれば、共同通信のヴィデオや記事では紙面を埋めるに量的な不足がまず生じちゃうだろう。テレビであっても、よほど重大ニュースが目白押しになっているというのでなければ、これほどの大事件、30秒足らずで済ませるわけには参りますまいよ、ということで、YouTubeにて「スエズ運河 再開」のキーワードで検索してみたらば*2……。

 検索結果中、実際に通行再開を扱っている1分を超えるヴィデオは*3「スエズ運河 航行再開 大型コンテナ船離礁成功(2021年3月30日)」(テレ東NEWS、YouTube)の1:00*4「座礁のコンテナ船 6日ぶり航行再開 スエズ運河」(FNNプライムオンライン、YouTube)の1:02、「6日ぶりにようやく通航再開 コンテナ船座礁のスエズ運河」(FNNプライムオンライン、YouTube)の1:02(は直前のと実質同じかな)、「大渋滞のスエズ運河 通航再開 コンテナ船が離礁に成功 喜びの汽笛」(Fujisankei Communications Int'l、YouTube)の1:35、ざっと見渡した感じで一番長かったのは「エジプト・スエズ運河6日ぶり通航再開…事故の原因究明は?(2021年3月30日放送「news every.」より)」(【公式】日テレNEWS、YouTube)の3:28か。検索キーワードを変えれば、もっとマシな結果が期待できるのかもしれないけれど、そこまで試すのは面倒臭いのでパス。関心のある方、試みられたし。

 3:28ともなれば結構な長さだけれど、それくらいのってもちっとあってもいいんぢゃないかなぁ。3分を超すものとなるとさすがに海外でもめっきり減ってくるのだけれど、それでも「How did a ship get stuck in the Suez Canal?」(The Independent、YouTube)などは、事故の経緯のとてもていねいなまとめになっていて、4:38。プレゼンテーション具合もそれなりに良く出来ていて、日テレ版のより「わかり味が深い」ってヤツになっているんぢゃないかしら。

 1分以上か未満かで詰め込める情報の量の隔たりは結構デカい。にもかかわらず、それほど少ないわけでもないヴィデオ中、1分を超えるものは少ない。このあたり、検索結果のあれこれ見比べてご覧になってみるといい。1分に及ばなかったために欠落してしまったアレコレ、事故&再開を他のあれこれと結びつけて考えるには案外重要なものだったりしそうぢゃないかしら?

 というわけで、少なくとも日本のテレビでは今回の「再開」周辺をめぐる報道、かなり手薄だったんぢゃないのかな。海外のものが周辺事情まで手を広げて話の位置づけを考えているのに、日本のものは多少長いものも含めて比較的目先の話しか報じていないという感じ。このへんのこの感じ、今回の件の報道に限ったことでもないような気がする(が、実はテレビはほとんど見ないからアテになんないんだけれどさぁ\(^o^)/)。

 

 といったあたりも僕が考えても意味ないっすねぇ。うーん。

 

*1: SWNSについては、「South West News Service」(Wikipedia)など。

*2: 以下の記述は2021年3月30日午後の検索結果に基づく。日本の民放チャンネルはそそくさとヴィデオを削除しちゃうので、後からの検索では結果はずいぶん異なったものになっているだろう。

*3:スエズ運河 再開」のキーワードでは、「スエズ運河再開めど立たず(2021年3月28日)」(テレ東NEWS、YouTube)といった見出しもヒットしてしまうので、このへんは見出しその他を目視にて確認しないとダメ。うぅ、面倒臭ぇ~。

*4: 検索結果時のサムネイルには「1:01」と表示されるが再生ページでは1秒短くなる。これはYouTubeのどのヴィデオでもほとんど全部同様である(極稀に例外もあるんだけれど)。

本日の備忘録/降霊術2.0

 パッと見でわかるかどうか微妙な気がしないでもないのだけれど、フィリップ・K・ディック(Philip Kindred Dick)を象ったロボット。詳細な公開日は表示されないのだけれど、ざっと8年前の公開。さがしてみると13年前の映像「Phillip K. Dick Android」(rachelg1215、YouTube)まで遡れるみたいだ。最近でもちょこちょことヴィデオは投稿され続けているみたいなので、興味がおありであればテケトーに検索されたし。

 ただし、開発元のハドソン・ロボティクス(Hudson Robotics)*1の公式チャンネルでは、ディック・ロボのヴィデオは公開されていない。あんまり推してはいないということなんだろうか?

 はてブで話題になっているブッダボットのリリース文に目を通して思い起こしたのがこのディックのロボットのことだった。

www.kyoto-u.ac.jp

 《Googleの提供する「BERT」というアルゴリズムを応用し、最古の仏教経典『スッタニパータ』から抽出したQ&Aリストを機械学習させた結果、精度には課題があるものの、ユーザーからの質問に対して文章の形で回答できる状態になりました》というこのブッダボットの大雑把なところは、ディックの残した言葉も学習し、彼ならこう答えるであろうと考えられる答えを返すという冒頭のロボットと似たようなものだろう。

 ブッダボットであれロボ・ディックであれ、いずれも恐山のイタコさんよりは精度の高い答えを返してくれそうではある(ただし、ロボ・ディックのほう、当時の出来具合、性能がどのようなものだったのか、AI部分などとくにいくらか気になるところかなぁ。でも、そのへんはとりあえず些末なこととして措く)。

 それより気になるのは、純粋な好奇心上の問題として、たとえば、将来技術的に進歩し仏典を広範に学習したブッダボットに今日存在する様々な仏教の宗派について論じさせるようなことをした場合、その正当性はどのように担保されるのか、あるいは理論的技術的に担保され得るとしても、その返答内容が宗教的・社会的にすんなりと受け入れられるものなのかどうかってなあたり、かなり気になってくるんぢゃないか。人工知能の出す答えは、場合によってはヒトにその理路の辿れないようなシロモノになることだってあるんだもんね*2。そういう答えの中には、既存宗派の教えを批判や否定する言葉が現れることだってあるんぢゃないか。

 あるいは、AIによって仏典を改めて再解釈しその解釈に従った教えを垂れちゃうぞと宣うカルトが出現したらどうなるか。そういうAI真理教みたいなものが出現した場合、既存の宗派さんはどのように対抗できるだろうか。なんだか最近ではAI利用を売りにする塾なんかも現れるくらいなんだから、AI活用で信者集めを考えるカルトが現れたって不思議ぢゃないでしょ。個人的には、手塚治虫火の鳥』に出て来たコンピュータに完全管理された都市同士が、コンピュータ間の争いから戦争を始めたみたいに、宗派・カルト間のAIによる仁義なき戦いみたいなものを妄想してちょっとワクワクしちゃうんだけれど、そういうのSFネタくらいにはなりませんかね。ダメかなぁ。もう使われたネタかなぁ、ひょっとして。

 だいたいからにして、AIの回答を崇め祀るヒトの姿って結構想像しやすい体のものかもなぁ。うーん。

 

 さらにもう一つ。ワイゼンバウムのイライザ(ELIZA)*4のように、画面に言葉が表示されるだけの比較的単純なプログラムであってさえ、相手をしたヒトは会話に没入してしまったという。では、コンピュータよりも愛着を覚え信頼さえするという*5ロボットとしてブッダボットが改めて作られた場合、ヒトはますますボットとの会話から離れられなくなってしまうというような可能性はないだろうか*6。もしそうした力を発揮するとなると、いよいよそいつを利用して信者集めを図るカルトなんかが出て来ちゃいそうな気がして来る。来ませんかね? 来ないかなぁ。来なくてもSFネタくらいにはできませんかね、無理ですかね。うーん。

 

ふろく

 今回も使わなかった関連ネタを。

 ブッダボット的な技術はこうした方面へも応用可能かもしれない。

 たとえば、一般人であっても、生前から日々の語りを録音すれば、結構な量の言葉をAIに学習させることも可能だろう。ソウヤーのネアンデルタール三部作中のネアンデルタール人のように日常のすべてをログとして残すわけだ。ソウヤーの場合は映像も残しているわけだけれど、さしあたりそこまでの必要はない。記録された言葉をそのまま公開する必要もないだろう。たぶんこっ恥ずかしく感じるヒトが多そうだもんね。秘匿してただAIの学習の材料として残す。学習済みAIを仏壇に組み込めば、折に触れ故人とあれこれ言葉を交わすことのできるスマート仏壇のいっちょ上がりである。人生相談に故人らしい言葉で乗ってくれることだってあるかもしれない。。

 というのはウケませんかね。ウケないかなぁ。うーん。こういうのに用いてこそ、降霊術2.0感あるんだがなぁ。そのぶん、仏罰カブるぞ感も増しちゃいますかね。うーん。

 製品に関する真面目な情報は、「コミュニケーションする「スマート仏壇」とは!?「コハコ」がコンセプトムービーを公開」(ロボスタ)をどうぞ。

 

 2017年12月公開の報道、「本日の備忘録/VRと、想像力とかエンパシーとか」で1度触れたものだ。技術の詳細はわからないけれど、AIで適切な答えを新たにこしらえているのではなく、質問への適切な回答に近似したものをデータベースから選んで答えに代えているというところなのだろうか。しかし、眺めているかぎりでは任意の質問にちゃんと答えているかのように見えるところは、なかなか。

 仮にこうした方面にブッダボット的な技術を応用すれば、ヴァーチャルな語り部による語り伝えの超長期の活動が可能になるかもしれない。答えているように見えるだけではなく、実際にAIがアレコレ考えて「答える」わけだ。美空ひばりに死後作られた作品を歌わせることだってできるのだから、語り部の語る表情も答えに合わせて合成できないはずはないだろう。しかし、その場合の「答え」はどのように受け止められるべきなのだろうか。AI技術そのものが適切に用いられるならば、ほぼそのまま受け止めてよいとする見方もあるだろうけれど、そもそも「適切」の中身をどう考えるのか、「適切に」用いられ得るという保証はどのように可能なのかといったあたりに不安は残るように思える。そこいらへんクリアでないと、政治的中立性がどうのこうのといったクレームをつけるヒトって出て来そうぢゃないですか。

 

 と、また僕が考えても仕方のないことをボソボソ。

 

ホミニッド-原人 (ハヤカワ文庫SF)

ホミニッド-原人 (ハヤカワ文庫SF)

 

 2003年ヒューゴー賞受賞。三部作第一巻。第二巻『ヒューマン―人類―』、第3巻『ハイブリッド―新種―』。並行世界ネタと見せかけて、実は割と愚直な文明批評というところ。ネアンデルタール人は、ホモサピエンスの文明を批判するために作者が設定した仮の尺度。巻を追うにしたがってそこいらへんの説教臭が鼻をつくようになってくるのだけれど、ソウヤーの腕前のおかげで何とかおもしろく読み終えられる作品というところか。カスタマーレビュー、第三巻に至って星5つのがなくなっちゃうのは、面白いんだけれどそれでもかなりの程度致し方なしかなぁ。うーん。

 

順列都市〈上〉 (ハヤカワ文庫SF)

順列都市〈上〉 (ハヤカワ文庫SF)

 

 ジョン・W・キャンベル記念賞(1995年)、ディトマー賞(1995年)受賞作品。

 降霊術2.0的な考え方を極限まで推し進めてゆくと、記憶も人格もコンピュータに入れてシミュレートしちゃうってなところに行き着くのかもしれない。さらに先にゆこうとすると本作の「塵理論」に、というようなことを考えたりする。ついでながら、下巻もお忘れなく。

 

おバカな答えもAIしてる 人工知能はどうやって学習しているのか?

おバカな答えもAIしてる 人工知能はどうやって学習しているのか?

 

 

*1: 「本日の備忘録/ロボットにとって顔とは何か?」で紹介したソフィア(Sophia)の開発元でもある。

*2: このへんについては、「Delphoi 42」など参照されたし。理路のあらましを割り出すAIなんていうのもあるらしいけれど。

*3:cf. 生命、宇宙、そして万物についての究極の疑問の答え - Wikipediahatebu

*4:cf. 「ELIZA」(Wikipedia)。項目が英字で記されているけれど、リンク先は日本語版ウィキpである。

*5: 「本日の備忘録/ロボットにとって顔とは何か?」の「ふろく」中、Cynthia BreazealのTED講演を参照されたし。

*6: 冒頭のヴィデオでも、ロボ・ディックと会話したにいちゃん、「ディープな会話(Deep Conversation)したぜぃ」みたいなことを云っていたあたり、そのへんの危うさを感じません?

本日の備忘録/ロボットにとって顔とは何か?

 16日公開。Promobot社が3Dモデリングによるハイパーリアルなヒューマノイドロボット開発のための部門を設けたとかなんとか。海外へも売り込みをかける予定みたいだから、そのうち「ハイパーリアルな」外装を装着したロボットに出喰わすことも出て来るんだろうか*1

 頭部だけでなく全身の外装開発にも着手するみたいなことも研究開発者氏は云っているのだけれど、そういうことであれば、本邦のオリエント工業*2にだって大いに商機はありそうだが、というような与太はさておき……*3

 しかし、外装そのものがいかに精緻なものであろうと、精緻に見合った繊細なコントロールが現在の技術でできるのかどうか、素人目からするといささか覚束ないように思える。柔らかい外装を動かない状態で眺めているぶんにはたしかにリアルなのだが、外装部分をコントロールするメカニズムのほうは、現状、必ずしもそのリアルに見合ったものになっていないのではないか。

 このあたりはたとえば、ハンソン・ロボティクス社のソフィアの映像をあれこれ見比べてみるといい*4。ソフィアは比較的ヒトに近しく柔らかい顔面部の外装を備えたロボットである。しかし、柔らかい素材の歪み方のせいもあってか、表情として不自然、あるいは表情として解釈しようとすると、実際にはそのような意図はないに違いない何やら複雑怪奇なニュアンスが表現されているようにも見えてくる。おそらくデザイン的には『エクス・マキナ』のアイヴァ(AVA)に影響を与えているのだろうけれど、ソフィアの表情のはとてもヒトが実演しているアイヴァに及ぶものではない。

 そういう現状を見るかぎり、柔らかくリアルな顔面はロボットにふさわしいものになっていないと云えるように思う。家庭内でのAIとのコミュニケーションにとってノイズとなりそうな要因が多いからである。家庭内でAIに求められるであろうコミュニケーションの質を考えた場合、ヒトとヒトの間で求められるような複雑なニュアンスを帯びた顔面表現は不要であって、ヒトの顔面への過度の類似は、余計なものだと見ておくほうが、少なくとも当面の間は無難ではないだろうか。

 たしかに精緻な人間的表情を実現しようとすれば、冒頭のヴィデオのようなヒトの顔面を写実的に扱う頭部こそ適切な選択であるように思えなくもない。ただし、精緻な外装がその効能を発揮できるのは、表情筋の細やかな動きによって外装をコントロールし得る場合に限られる。ヒトが表情を変化させる場合と異なり、外装に余計なシワやたるみが生じることもあれば、外装の装着具合によって「人相」が微妙に変化してしまうことだってある。結果として、リアルに作られた顔面では、表情に余計なニュアンスが生じてしまったり不自然な表情に見えたりしてしまう。そういう表情で「人類ぶっ壊す」的な発言をすれば、気味が悪いぜってことになっちゃうしかない。

 最後の表情は僕にはずいぶん不気味なものと感じられるがどうか。

 一見精緻でリアルな顔面が表現されるべき内容以外のノイズみたいなものをうっかり表現してしまうのに対して、以下のような表情の表現は、リアルではないものの表現されて然るべき内容に概ねふさわしい形を与えるものになっているんぢゃないだろうか。

 16日公開*5。少々以前に小型版が話題になった製品*6の実物大モデルみたいなの。小型版同様、実際のロボットではなくヒトとコミュニケートするのは、立体的な映像になる。

 ちょっとおもしろいなと思ったのが、以下のような記号の登場だ。

20210318021920

キャラクタの頭上、小さな驚きや気づきを表す記号に注目

 キャラクタがマンガ/アニメ的なものであるばかりではなく、キャラクタ以外の空間にマンガ的な記号表現が添えられている。その結果、表情の精緻で微細な変化に頼らずに来客への気づきがわかりやすく表現されている。マンガに登場する記号表現には、すでに蓄積された伝統とでもいえそうなものが存在する。それを利用すればディスプレイにユーザに伝えるべき表情がもたらす情報は、柔らかくリアルな外装を用いた表情表現以上に的確なものになるのではないか。外装をコントロールする技術を改めて開発する必要がない点は、さしあたり大きなアドバンテージになるんぢゃないか。そんなふうに見える。

 もちろん、ディスプレイに浮かび上がる映像そのものは外界に直接働きかけることはできない。したがって、ロボット部分とディスプレイ部分をどう組み合わせるのかという問題は残る。しかし、頭部部分のディスプレイだけロボットに組み込む程度のことなら比較的簡単に実現できるように素人目には見えるし、あるいはマジンガーZガンダムのようにロボットに乗り込んで操縦するというような設定でロボット部分とディスプレイ部分を組み合わせるといった形のようなデザインを考えることはさほど難しくはないようにも見える。

 そのあたりの詳細はさておくとしても、マンガ/アニメ的な表現は有意義であるように思える。絵についてはいうまでもなく、周辺の記号的な表現においても、マンガ表現にはすでに歴史的な蓄積がある。したがって、映像と記号の2つを介した表現は、より高度で誤解の少ない情報伝達に用い得る可能性がある。わざわざ現実のヒトの表情を解析し立体的な構造物を作動させ、的確に柔らかい外装をコントロールして然るべき現実的な表情を実現するよりも遥かに効率も良いのではないか。というかまぁ、そのほうが何となく愉しそうぢゃないか。

 そうぢゃないですかねぇ、そうでもないですかねぇ。うーん(´-`).。oO

 

ふろく

 当初、何となく使えそうかなと思っていたのだけれど、使わずじまいになっちゃったアレコレを以下に。

 何となくAIとヒトとの関係って、ディスプレイやスピーカとマイクやキーボードを使ったコミュニケーションだけでは不足があるというか気持ちの良いものにはならないんぢゃないかという素人臭い気分くらいはご理解いただけるんぢゃないかと甘えたことを考えている。

 2011年のTED講演。ロボットとヒトとがどう情報を遣り取りするかを考えることは、AIとの協調作業、あるいは隔てられたヒト同士の情報の遣り取りが求められるような時代には重要な課題になってくるとこいらへん。

 気になるのは、ロボットの信頼性が確保されるのにどの程度のロボットらしさが必要なのかというあたり。上の講演では、コンピュータとロボットの違いを自明のものとして扱っているけれど、ロボットと云ってもスマートスピーカ程度のものやMebotのようなものから、Boston Dynamics社のAtlasみたいなもの*7まで、現状でもピンきりだろう。スマートスピーカ程度であれば、言葉を発せられるようにしたノートパソコンとの差は小さいだろう。どの程度発話するPCから離れたとき、ヒトから得られる親しみや信頼は意味あるだけのものになるのかは大いに気になるところぢゃないか。

 Cynthia Breazealは、この講演の後しばらくして、世界初(という触れ込みの)Social RobotだったっけかFamily RobotだったっけかであるJibo*8というロボットの開発に取り組むことになる。クラウドファンディングで目標額の2倍を超える4億円もの資金調達を達成したこともあって、当初は大きな話題を呼んだので、閲覧諸賢の中には御記憶の方もいらっしゃるだろう。

 今日の目で見れば、スマートスピーカに表情表現と映像情報を表示するディスプレイと、移動機能に若干のその他の動作を装備しているに過ぎないというふうにも見える。けれど、先のTED講演を見た後なら、あまり精緻なロボットのメカニズムを用いずに最低限のロボット的な愛着を引き出すデザインが施されていると見えもするだろう。

 たとえばこのディスプレイ部分にGateboxの表情表現(頭部+記号)が表示されるようなロボットはどうだろうか? Jiboよりも感情移入しやすいロボットになったろうか、ならなかったろうか。

 2010年代半ばから後半、Jiboを中途半端に模倣したと思えるロボットって結構出てきていたのだけれど、表情部分に本格的な考察をめぐらしたと思えるものってなかったよなぁ。うーん。個人的にはJiboの表情表現って、かなりカッコいいし実用的なもの足り得ているんぢゃないかと思うんだがなぁ*10

 今月23日に公開された映像。Jiboとの影響関係は知らないけれど、コンセプトくらいには受け継がれたものがあってもおかしくないように感じられる。Jiboをスマートフォンの代わりに組み込んだMebotみたいな感じ? ただし、表情表現がまったく違う。どういう形でこういう表現が選ばれるようになったのか、気にならないでもない。

 2018年。チャンネルは慶應義塾大学だけれど、岡田美智男は豊橋科学技術大学。Cynthia Breazealとはずいぶん異なった視角からの議論が興味深い。ずいぶん異なって見える一方で、「ヒトらしさ」を引き算で考えるというアプローチは、Jiboのデザインと重なって見えなくもない。講演の中でもスマートスピーカへの言及があったりするしぃ。

 マンガに似たような表情表現としては、こちらのようなタイプが最もポピュラーであるかもしれない。これは「Sawyer - The Smart, Collaborative Robot from Rethink Robotics」(Rethink Robotics GmbH、YouTube)をご覧になればおわかりいただけるように産業用ロボットなんかに利用されているケースも多いタイプ。他に上下方向以外にも眉毛が動いたり、口も描かれていたりするようなものもある。ただし、意外なことに(と思えるのだけれど、そうでもないですかね?)こうしたタイプの表情表現ではマンガ的記号表現が併用されることは少ないみたいだ。なんでだろう? また、マンガ的な表現としても垢抜けない印象がある。どうしてこのようないかにも洗練の足りないデザインが選ばれたのだろう?

 自閉症児に社会性を教育するのに効果をあげているとか何とかが話題になったロボカインド・ロボティクス(Robokind Robotics)のロボット。5、6年くらい以前、話題になった折に見たCNNの映像がショッキングなものだった*12。ヒトによる指導をテンで受け付けなかった子どもが、ロボットを交えた指導だとみるみる関心を持って来る様子はちょっと俄には信じがたいものだったんだけれど。上は柔らかい外装が実現している表情表現が割とお粗末である例になるかも、と思って選んだヤツ。

 コンピュータよりロボットのほうに親しみを覚えるというのは理解できる(ような気がする)出来事ではある。しかし、ヒト以上にロボットに対して心を開くとはどういうことか?

 

 柔らかい外装を用いた表情表現も、そのコントロール技術が洗練されればずいぶん利用範囲は広がるに違いない。たとえば、表情のコントロールがプレイの面白さにとって重要な意味を持つ(んぢゃないですかね?)ポーカーや麻雀のようなゲーム用ロボットならば、ヒト的に見て精緻な表情コントロールがあっていいはず。所謂「ポーカー・フェイス」ばかりでなく、初心者相手の場合には自分の手牌のまずさに思わず顔をしかめるようなロボットだって求められるだろう。Jiboのような単純な表情表現はまったく不向きだということになりもする。ただし、そういうあたりの細かな検討が必要になるほど、現在の表情コントロールの技術は高くないように見える。もちろん、そのへんは門外漢素人であるこちらの勉強不足、無知による間違いだということだってありそうだけれど\(^o^)/

 大体からにして、こういうことを僕が考えてみたところで何の意味もないんだからなぁ\(^o^)/\(^o^)/

 

 『口ごもるコンピュータ』、マケプレものしかないみたいだけれど。こういうの、さっさと電子書籍化しちゃえばいいのにぃ。共立出版なんだしぃ。

 

おバカな答えもAIしてる 人工知能はどうやって学習しているのか?

おバカな答えもAIしてる 人工知能はどうやって学習しているのか?

 

 

*1: 「'Attractive' robots designed using realistic human attributes」(BBC News、YouTube)によると、《The hyper-realistic humanoid robots are scheduled for mass production by the end of the year, with the aim of using them in retail or care environments》とのことだから、うっかりすると年内にも目にできる可能性があるわけか。へぇ~。

*2: リンク先はウィキp。オフィシャル・サイトの閲覧はそちらを経由されたし。

*3: ただし、「2010年には歯学部生の訓練用としてテムザックと昭和大学歯学部が共同開発した患者ロボット『昭和花子』の軟部組織再現に技術協力するなど、ラブドール以外の分野にも進出を始めている」(ウィキp)などという話もあって、まんざら与太話とばかりは云えないのかも。

*4:cf. 「sophia robot」によるYouTubeでの検索結果

*5: 書き終えるまで忘れていたのだけれど、8日に日本語版「Gatebox Grande - 大型キャラクター召喚装置 - PV『未来のおもてなし』」(Gatebox、YouTube)が公開されていたのだった\(^o^)/

*6:cf. 「Gatebox -プロモーションムービー 『おかえり』」(Gatebox、YouTube) 

*7:「Do You Love Me?」(Boston Dynamics、YouTube

*8: リンク先はオフィシャルサイト。でも、PCからだと閲覧できるコンテンツはもはやなくなっちゃったみたい。うーん。

*9: 「Jibo videos」、名前はオフィシャルっぽいのだけれど、ひょっとすると野良アカウントさん。オフィシャルのチャンネルは、すでになくなっている模様。

*10: 製品化されたのだけれど、結構高い値段と開発の遅れ、開発キットも出なかったことなどが原因になってポシャっちゃったとかなんとか。NTTが開発会社を買収したように仄聞しているのだけれど、その後どうなったのかは知らない。どうなっちゃったのかしらね?

*11: 講演のほう、いささか長くて見ていられないという向きには、「“弱いロボット”が育む優しい心【SDGs 2030年の世界へ】」(TBS NEWS、YouTube、2021年)「頼りないロボット、実は最強!?」(中日新聞デジタル編集部、YouTube、2020年)など参照されたし。あと講演の後半で紹介される『口ごもるコンピュータ』(共立出版)は名著。

*12: ので、そいつを取り上げようと思ったのだけれど、軽く検索した範囲では見当たらなかった。

本日の防災/百聞は一見に如かず

 昨夕の宮城県沖を震源とする地震、それなりに規模が大きい割にTwitterの我がTLを眺めているかぎりでは、地元以外からの反応は鈍かったような気がする。情報そのものとしては慣れっこになっちゃったということなんだろうか。

 そこいらへんは、僕自身振り返ってみてどうなのか、怪しいところに思い当たる節がやたらとあるので説教臭い話はとりあえず資格なしということでパス。

 ただ流れるTLから、個人的には新しい知見だったツイートを以下に。ご存知の方には、小泉進次郎の「プラスチックの原料って石油なんですよ。意外にこれ知られてないんですけど」*2みたいなもんかもしれないけれど\(^o^)/。

 津波は、並の波よりポテンシャルのあるものであって、高さだけで判断して侮ってはならないみたいな話だけならすでにいくらでも耳目にしてきたことではあるのだけれど、実際のところ肌身に感じるような怖さを覚え得て来たかどうかとなると大いに怪しい。

 実験映像となるとやはり「百聞は一見に如かず」というところ。

 3.11直接の経験があってのマグネットカードということなんだろうか。昨今のホテル事情にはまったく疎いのだけれど、♡マークも♺マークもずいぶん付けられているということは、やはり僕同様そんなものがあることを知らなかったヒトが多いということだろうか。

 実際にちゃんと確認に来てくれるものかどうかは、デッカい揺れに遭遇してみなければわからないけれど\(^o^)/、でもこういうのがあると、なんとなく安心感を覚えるんぢゃないか。そういう効果があるとすれば、震災の直接の経験を持たない土地にだって普及していくこともありそうな。

 

それまでの明日 (ハヤカワ文庫JA)

それまでの明日 (ハヤカワ文庫JA)

  • 作者:原 尞
  • 発売日: 2020/09/03
  • メディア: 文庫
 

 アマゾンのカスタマーレヴューの不評が気になって、なかなか読む気になれなかったのを、最近ようやく。

 で、カスタマーレヴューは良くも悪くも当てにならないことが再確認できてめでたしめでたし。気になったのは、沢崎(や錦織も、だな)がいくらか軽くなっちゃったことかな。これまであとがきで採用されてきた《探偵・沢崎の短いエピソード》中の沢崎が本篇中に引越してきたんぢゃないかというふうな。錦織なんかはもう戯画的キャラクタと化しちゃったみたい。しかし、絶対にけるに違いないと見込んでいた相良の変わりっぷりはほぼ想像通り。自慢したいところなんだけれど、過去、そのへんブログでもTwitterでも書き留めてないんだよなぁ。無念。

 と、特段のお薦めというわけでもないのだけれど、3.11の震災発生時で文字通り「一巻の終わり」だったもんだから思い出したというわけで、まぁ。

 原 尞といえば沢崎モノ(というか小説作品は沢崎モノしかない)なのだからして、お読みになるならシリーズ第一作『そして夜は甦る』(ハヤカワ文庫)から発刊順に読むのがお薦め。

 

 気に入らないのは、原 尞モノの文庫シリーズの表紙カヴァーデザインの変更だよな。旧デザインはアマゾンでのKindle版で今でも表示される写真を主体としたヤツ。イラスト版はイラスト版で悪いとまでは云わないまでも、比べると田舎臭く見える。沢崎モノの主たる舞台は都内なんだからして、まぁ似合わない。もちろん、《東京は世界の名古屋だ》(坂本龍一)といった意見もあるわけだけれど。

 

*1: 会見本編が始まるのは6分22秒あたりから(2021年3月21日現在。後で編集が入って余分なところがカットされることもあるかな?

*2: 関係ないけれど、#意外にこれ知られてないんですけど - Twitter Search / Twitterが、なんだか元発言とは関係のない豆知識小ネタ集になっちゃってる\(^o^)/