単眼ハコスコで子供たちにTiltbrushしてほしいのでガイドとしてVIVE被って共同作業したい
メニューでブラシを切り替えるのでは初見の子供には大変なので、
沢山ブラシを用意してあげる(コントローラ沢山)か、
アテンドのVIVE被っている大人がブラシを切り替えてあたえてあげる
そういう空間共有をハコスコ+トラッカーでできないだろうか?
ハコスコにコントローラしばりつける、でも、今はテストできる
HTCの明日はどっちだ
VIVEはグラボ低価格化で一気に盛り上がってるタイミングで店頭販売。
日本だとルームスケールがそれほどアドバンテージではないけど、PSVR前に自作パソコン世代のおっさん を狩ることはできそうだ。
問題はソフト。そこでPSVRがさらっていく。
HTCはビジネス向けを視野に入れてるだろうがそこはホロレンズがいる。
認知症介護支援のための予測サービス
何がissueか
* 徘徊しないようにとか、誤嚥しないようにとか、24時間みまもるのはたいへん
* それやってたら働けない
* ヘルパーさんはものすごくお金がかかる
* ヘルパーさんのあたりはずれも大きいが、評価のものさしが無いので困る
* それやってたら精神を病む。
* 家族であると、それ以前とは「違う人」なので落差に常に悩むことになる
何が解決策か?
危険なことさえさせなければいい
* ゾーニング(まぁ普通に誰でもやる)
* 行ってはいけない領域にセンサー(行動範囲内部)
* 居て欲しい領域から消えたらアラート
* 行動パターンからずれ始めたとき、危険な行為に及びそうな前触れを検知したらアラーム
* 行動計画を立てておいて、意図的な外出などを監視から除外する
* ヘルパーさんが近くにいればアラートは立たない。ただし行動パターンはモニターする。
* 生体信号からストレスを計測して、それが異常行動の引き金となっていないかをモニターする
* 合わないヘルパーさんをスケジュールからはずして様子の変化を見る
解決策の中で何ができるか?他のパートは実現可能性があるか?なければ丸抱え?
* 生体信号のモニタリング
* 心拍、呼吸、体温
* 本当は眼鏡にカメラ仕込んで視線トラッキングしたい。
* 何を見ているかは行動に先立つ指標になるかもしれない
* 行動の平常パターンの認識と異常検知
* NumentaのHTMでやってみたい
* 課題:何を数値化してとりこみ、どの程度のサンプルレートにするかは課題)
* 行動パターンの予測
* カメラの動画から個人を特定(まぁなんとかなる、、かな)
* 特定された個人の動作を個々のステップに分解して認識(ここは難しい)
* 行動のシーケンスを学習(HTMは得意)
* 学習ずみのシーケンスの一部から後続を予測(HTMは得意)
勝算は?
* もともと大変お金がかかる領域だから、お金を支出する側のハードルは低い
* 認知系の研究として資金も出ているだろう
* 逆にそれが新規性がないとして研究としては予算が付きにくいかもしれないが
最大のハードルは?
* ~~解決策が思いつかない~~
* ~~危険行為と判別すること~~
* 行為を学習して、逸脱を検知したり、危険行為につながる前段階を検出
* ~~危険行為に及ぶ前に止める方策~~
* アラートで対応。できるだけ余裕のあるときに出したい。
* 行為の認識で、ステップにどう区切るか
* だらだらシーケンスを学習させて、そこから有限の区切りある行為が立ち上がって来る、というのは無視が良すぎる
* 視線トラッキングや生体信号(加速度センサなど)のデータまでぶっこめばanomalyはわかるかもしれないが、自信なし。
* 生体信号からストレスの分析をどうするか
* 研究は山ほどあるだろうけど、絞り込みしないと事業のメニューにはしにくい。
* 余計な期待をさせると満足度が下がる
* コストがかさむ
* 分析のノイズになる可能性がある
* それでも最初はみんなとって、行動予測への寄与をswarming optimizationの過程で数値化すればいいのかもしれない
なぜ新皮質は6層「も」あるのか
HTMのJeffの説明を読んでいて、大脳新皮質の「6層」構造が複雑すぎるような気がしてきた。
周囲の感覚器や小脳などとの配線だけが複雑で、オリジナルのHTMのコラム以上の複雑さは必要ないのではないか?
遺伝子の進化のあとを辿ると新皮質の原初の形態や、なぜここまで肥大化したのか(遺伝子の重畳が原因かと思う)についての研究があるはずで、それが知りたい。
原初はsensori-motorとシーケンスの記憶(多分、これがのちのシンボル記憶につながる新皮質の根源的な新しさ)がからみあったもので、sensori-motorの方は旧脳の複雑さを引きずっているのではないか?
で、sensori-motorの方は小脳にほぼコピーがあるはずで、そことの協働とoverrideの関係とか、かなり複雑なのではないかと思う。
最終的にはすべてHTMのオリジナルのシンプルなTM(temporal memory)の階層構造でやれるけれど、旧脳の関与がじわじわと染み込んでくる過程がJeffの説明したかったsensori-motorのところなんだろうな。と思う。
そしてfeed forwardで記憶から制御する反応の良さが旧脳をoverrideして淘汰に打ち勝つ要因になったのではないかしら?
原理的には小脳や脊髄をセンサーとアクチュエータとして単純化して、新皮質もSP(空間プーリング)とTP(時間プーリング)だけに単純化しても同じような認知機能のものは作れる気がする。
意識を理論化しようとしている人たちはそっちに行き着くのではないかな。
深層学習がすごいとか、人工知能は難しいという人は問題を見る方向が間違っているのではないか
人間とその脳は、できることをやっているにすぎない。
認知可能な組み合わせを分別しているにすぎない
脳に全く異なる構造から発生したデータを与えても全く理解できないはずだ。
生まれた時から盲目だった人に目から信号を与えた時よりも絶望的だ。
人間に知能がある、というのは、そう感じるというだけで、知能が存在しているわけではないのだ。
「人間に知能がある」という知覚現象、だけが真実だ。
https://twitter.com/ocaokgbu/status/743620044567896064
人間に知能がある、というのは、そう感じるというだけで、知能が存在しているわけではないのだ。 正確には、知能が実在することを担保するわけではないのだ。か。 「人間に知能があると感じる」という知覚現象、だけが真実だ。 知能について考える時、この方向から切り込むのが本流になるべき。
では知能とか心とか命とか意識とか自由意志とかいう言葉はタブーとすべきなのだろうか。 多分それらは社会的生活を送る上で非常に有効なので、捨てる必要はないだろう。 宗教のようなものだ。信念の集合。行動に影響を与えうる脳内で永続的なコンテキスト。
yet another 知性(があるように見えるもの)として何が本当にやるべきことなのか? →創発的な行為
aha!をどうやって起こすか?
それは、概念のつながりを見出すこと。
つながり?
Sparse codedなパターンとして概念が表現されているとして、
これまでつながりがなかった2つの概念について、非常に強い相関が現れるコンテクストをなんども経験することによって、そのコンテクストと2つ(以上)の概念を結びつける経路が強化されて、安定して再現可能になる。(記憶として想起され、他のパターンの構成要素になる)
つながりのtemplateとしてはこんな感じだろう。いや、普通に基本的な論理を並べておけばいいのかもだけど。
- 同じだ
- 変換可能である
- 逆だ
- 演算可能である(同じ型を持つか、型のパターンがマッチする演算が存在する)
VR infrastructure and standalone hybrid system
https://twitter.com/ocaokgbu/status/741302012050972673
・LighthouseとTouch
・StreetView(iBeacon付THETA cloud)がインフラとして普遍的に存在)とHololens/Tangoのデプスカメラ
いずれも相補的だと思うのだ。インフラ整うとwareableデバイスの負荷下がって小型化、はあるかしら。
なんつーか、室内にTHETA4本置いてVIVEのlighthouse置いたらホロレンズの空間認知って無駄すぎる、、と感じたのだよな。。。 TouchもトラッキングはVIVEのコントローラを肘にくくりつけたらしまいやん。
現状、ハイブリッドにするのはコスト上がりすぎ、ってのはわかるけど、先進的ハードのコストって1桁下がることもまれではないから、倍のハードで済むなら、通常は効率良いインフラに頼って、非常時だけスタンドアローンな機能に頼ることでバッテリーライフ伸ばすとか。アリかな?
Aha!ではHTMでは何が起こっているのか
もともとの問題意識
シンボル演算ならNeumannマシン強いよな。では数学をNeumannマシンは創造できるのか?
現状、それは難しい。
なぜ?
創発的な活動ができない。というかそういうアルゴリズムが知られていない。
じゃぁ、脳、というかHTMで創発って何が起きてることになるの?
よく言われるのは、つながりができる、ということ。
シナプスができる、強化される、ということ?それは普通の学習と何が違う?
なにかとなにかが同じ、だから、、似ているから、結びつく、のだろうか?
sparse codingだと、偶然似てしまう、ということは考えにくい。
似ている、、、実生活では、よこすべり、だじゃれ、言い間違い、、
これをHTMで何をおこせばいいのか?
HTM的に似ている、ということは、contextを形成するものがほぼ一緒である、、、つまりcontextを共有している。
1つの活性化樹状突起でいえば8つのシナプスが同時に活性化すると発火するわけだから、空間的poolingの影響がないくらい遠いニューロンどうしでこの8つのシナプスを共有していれば可能性はある。
しかし、1つの樹状突起に集まって来るのは、そもそもが空間的に近いものである可能性が高い(これどうやってHTM的に実装するかといえば、同じregion内部から飛んでくる場合は一つの樹状突起にくっつくシナプス結合する、、というぐらいか)
このあたりは
Why Neurons Have Thousands of Synapses, a Theory of Sequence Memory in Neocortex
に詳しい。
遠くのニューロンからのシナプス結合はコンテクストとして「発火一番乗り」を支援するだけである。しかし、コンテクストがあれば、多少ノイズがあってもそれが選ばれて、発火して、結合が強化されて、、というループは起きうる。
そして、いつも同期して発火するいくつかの概念グループが別のリージョン上で発火を起こす。。。それが「Aha!」
だから、Aha!というのは、すでにものすごくコンテクストができていて、明示的に接続というか別ステージでの発火が起き、トップレベルまでそれがエスカレーションされた瞬間、なんだろう。ものごとは識閾下ですすんでいて、新しい発火を手繰ってみたら、2つのこれまで関係ないと思っていたものが同時に発火していた、、というやつ。
追記:これってHTMの基本動作だよな、、、
高位のregionでの発火って、こうやって起こるようになる。
概念形成の瞬間はいつもAha!なんだよ。
@ocaokgbu あ、あきらめてカフェから引き揚げた瞬間に理解した。HTMではすべての新しい概念ってこのパターンで形成されるんだ。issueじゃなくて基本動作だわ、これ。コンテクストを共有する、ということが明示的にエスカレーションされる瞬間がaha!ってだけ。
— Kazutaka Ogaki (@ocaokgbu) 2016年6月8日