スマホ用熱赤外カメラFLIR ONEが届いたのでその雑感と茶の湯の家稽古を撮影テスト。

2015/07/10 15:00追記:以下の記事の動画はFPSが低くカクカクですが、これはやはりiPad mini初代のパワー不足でした。会社のiPhone6 Plusユーザーに端末を借りてテストしたところ相当なめらかでした。

米国の熱赤外カメラで有名なFLIR社が、iOSスマホ、androidスマホ、およびタブレット用の熱赤外カメラモジュールFLIR ONE(第2世代)を発売開始しました。半年前から予約を入れていて、先週海外向け発送が始まり今日届いたので早速テストしました。日本に入ってきているのはまだまだ少ないかな。FLIR ONEはiPhone5/5s専用の第一世代から、今回Lightningコネクタ対応、またAndroid版も発売になってFLIR ONE 第2世代となりました。

公式サイト:FLIR ONE @ FLIR

20150709_flirone1_2048

20150709_flirone2_2048

20150709_flirone3_2048

FLIR ONEアプリはiOS/androidともにアプリストアからダウンロード。あとはスマホ・タブレットに差し込むだけ。セットアップは簡単です。私は、Androidスマホユーザーですが、なぜかiOS版を購入しました(いろいろな事情により(笑))。私が持っている対応iOS端末ですとiPad mini(初代)しかないのでCPUパワーが心許なし。
文章で書くより、まずはファーストインプレッション概説としてYoutubeに動画をアップしました。


リンク:FLIR ONE for iOSを簡単に紹介。 | youtube


この動画は、最初の解説動画中で実際にFLIR ONEで撮影されたもの。

<動画内の解説まとめ>
・セットアップは簡単。アプリ(FLIR ONE)をアプリストアからダウンロードしてFLIR ONEを接続するだけ。
・iOS版の場合、iOS標準のカメラインターフェイスとそっくりで直感で使える。
・VGAの解像度でfpsはやや落ちるカクカク動画や、静止画、タイムラプスなどの撮影ができる。動画は音声も記録される。後日iPhone6で確認したところなめらかでした。やはりiPad miniのパワー不足です。
・熱赤外の見え方には数種類のエフェクトがある(今回はレインボーという種類を選んだ)
・画面の中央部には絶対温度が数値で出る。どれほど正確かは未検証。
・メニュー等に日本語対応。

さて、私がFLIR ONEを半年前から予約していたのは、毎晩帰宅後に家で行っている茶の湯(いわゆる茶道)の家稽古の様子を熱赤外カメラで撮影してみたかったからです。
茶の湯の魅力は語り出したら終わりませんが、私個人としては知人と楽しく美味しい一服の茶を楽しむことからはじまり、やはりお点前は美しくありたいものです。
本業の人工衛星でも大いに利用している重力ですが、茶の湯のお点前においても、重力を綺麗に使うという意味で、熱赤外で火・湯・水の動きが視覚的に見えれば少しでも点前・所作の改善に繋がるのではと考えました。
早速、長着の着流しで撮影してみました。風炉・薄茶・平点前です。


リンク:FLIR ONE for iOS(iPad mini) Test 茶の湯 風炉 薄茶 平点前 No2
* あまりに汚い点前でバッシングを受けそうですが、今回はFLIR ONEの動画撮影テストということで恥を承知で動画を紹介。

iPad miniのパワー不足が問題か、FPSがあまり上がらずカクカクしていて流れるように見えないですね。iPad miniではなく、私の点前がカクカクでダメなのかも(笑)

<まとめ>
・FLIR ONEは実に面白いです。私は茶の湯の稽古用に求めましたが、FLIR ONEの公式サイトにあるように配管チェックなどの非破壊検査や、自転車などのパワートレーニングの様子等使い方はかなりありそうです。
・差し込んで、アプリをダウンロードして起動するだけですぐ使えるので簡単でした。
・多少FPSが低くカクカク動画ですが、もうちょっとCPUパワーのある端末でいずれテストしてみようと思います。後日iPhone6で確認したところなめらかでした。やはりiPad miniのパワー不足です。

Google Photosの無料・無制限ストレージにおけるGoogleの画像解析・収集戦略について

Google Photosという「無料・容量無制限ストレージ」のサービスが開始されました。
写真好きというのもあり、少し試したところ気が付いた事がありました。Googleがなぜ無料・無制限に踏み切ったかについて私なりの思うことを書いておきます。
多くの方が(無意識のウチに)使って行くでしょうから、長文ではございますが使用前に一考くだされ。(長文なので結論を先に書くと安易に使うのは危険です)

iCloud, Google Drive, DropBox, One Driveとクラウドストレージ(ネットワークストレージ)の低価格競争(容量増大競争)は近年顕著であり、シェアを落としてきた会社が容量増大・値下げるという形を繰り返してきました。
今日Googleが発表したのは、1600万画素以下の画像・1080p以下の動画であれば容量無制限・無料で使えるというサービスです。各社のニュースメディアを見ると、「iCloudとのガチンコバトルになる」などの内容が多く、この無料・無制限の意味をあまり書いている記事は少ない様です。

早速、私も使ってみました。写真好きの私から見ると、この1600万画素以下の画像という部分がひっかかり、私の画像を実際にアップした時に適切に自前で縮小してからアップすれば、`その画像が改変(再圧縮劣化)されることなく`アップされるのか確認したかったからです。普段私がブログなりに載せている写真は、構図などのセンスは無いものの、`常に高画質`というのはこだわりを持ってアップしています。そこで私の写真・画像が改変(劣化)されることなくアップされ、それが容量無制限・無料であれば、写真のバックアップに使えるかなと考えた為です。

1600万画素以下ということと、現状の4K(4K DCI)などの状況を見て、解像度を4096x2730pxのJPEG画像(この記事に貼ってある小石川後楽園の青楓写真)を元画像とします。RAW画像から、この4096×2730にPhotoshopで縮小し、JPEG圧縮時の品質を10, 8, 6, 4, 2, 0と6種類の圧縮率(数値が下がると圧縮率があがりファイルサイズが小さくなるが劣化が顕著になる)でJPEG画像を生成し、Google Photosにアップしてみました。Googleの発表の`1600万画素以下`という条件は曖昧ですが、この解像度であれば1100万画素相当なので条件は満たしているはずです。アップ後に、ダウンロードをして、画像の前後を比較してみました。

Kodak PIXPRO SP360 + camalapse + 回転宴会Lapseのススメ。

360度魚眼アクションカムKodak PIXPRO SP360と、ゼンマイ(非電動)回転台`camalapse`による回転Time Lapse動画のススメ。
面白いですよ。SP360は、私はB&Hから輸入しましたが、日本では上記リンクの様にマスプロが代理店なのですね。camalapseもB&Hに売っていたので両方とも。3日後には届きました。毎度B&Hは素晴らしい。

SP360は、いろいろな機能がありますが、面白いのは360度円周魚眼カメラによるTime Lapse動画でしょう。1440×1440 MP4の動画が1秒に1コマ、2秒に1コマなどいろいろなシャッタータイミングでTime Lapse動画が撮影可能です。バッテリーは160分持つようなので、飲み会などで皆が囲むテーブルの真ん中に置いておけば、2~3時間の飲み会の面白いTime Lapse動画が撮れると思います。

20141229_kodak_sp360_no5_1200

ところが、テーブルの真ん中に置いておくと、いつも同じところに同じ人が写っていて面白くありません。そこで、更にカメラをゆっくりと回すためにcamapalseを使います。camalapseはゼンマイ仕掛けでゆっくりと回す雑な回転台。カチカチうるさいのが気になりますが、Time Lapseは音声がそもそも入っていませんのでとりあえず良しとします。1時間で1周します。SP360をcamapalseに載せれば、画面が回転するTime Lapseが撮影できます。ところが、

20141229_kodak_sp360_no6_1200

この写真にあるように三脚取付ネジ穴が側面についているため、SP360 + camalapseだけですと、

20141229_kodak_sp360_1200

この様にカメラが横付になってしまいしまいます。うーむ。バッテリーの位置の関係だと思いますが、これは残念な仕様です。

20141229_kodak_sp360_no3_1200

小型雲台をつけたりといろいろやっていたら、昔スマホを挟んで(自由に伸ばせて)三脚に取り付ける部品を見つけました(写真の右側)
同等の部品はカメラ量販店などに行けばいろいろあるでしょう。

20141229_kodak_sp360_no4_1200

アームが延びてバネで挟み込めるのでこれでSP360を掴めます。

20141229_kodak_sp360_no2_1200

こんな感じ。

さて実際に撮影した映像ですが、年末年始の家族の宴会を撮影したのですが、プライバシーがあるのでその動画は却下。一方で、両親にお茶(薄茶)を振る舞った動画を1440×1440から240×240に縮小リサイズしたものを参考にアップ。実際には1440×1440なので結構綺麗な動画です。回転している様子が伝わればと思います。

Sony ILCE-QX1での朝の月撮影

今朝はトレーニングをオフにして部屋掃除。
外に出ると天気も良く月が綺麗だったので、Sony QX1 + Xperia Z1で撮影テスト。
だいぶ使い方に慣れてきました。
Canon EF70-200mm F2.8 IS USM + x2テレコンでの撮影比較。QX1のAPS-Cイメージャーは若干画質がイマイチ(値段を考えればそのような気もするけど)
Xperia Z1とのNFC + WiFiによる通信は近づいていればそれほど時間遅れもありません。こういったスタイルのカメラですからそのあたりは及第点と言えます。

まだまだ追い込んでいないのでもう少し試行錯誤しますが
・スマホでのプレビュー画像を拡大表示できない(つまり月面のクレーターにMFでピントを合わせるのが困難)
・QX1のAPS-Cイメージャーは少し下のグレードかな?もうちょっといろいろな場面で撮影してみます。
・マニュアル撮影モードが欲しいかな(絞り優先、シャッター優先はできる)
・RAWにも対応。
・(今のところ)この撮影スタイル、カメラとしてのアプローチに関しては実に面白いと思います。

20141210_mm1_1200

20141210_mm2_1200

20141210_mm_qx2_1200

20141210_mm_eosm2_1200

Sony ILCE-QX1の可能性

このカメラがカメラの未来を示しているのか、人柱的に率先的に使い方を創造する。

20141207_qx1
Sony ILCE-QX1 + EF電子接点マウントアダプタ + Canon x2テレコン + Canon EF70-200 F2.8L IS USM

20141207_qx2
Sony ILCE-QX1 + Sony SEL55F18Z

20141207_qx4a
Sony ILCE-QX1 + Sony SEL55F18Z w/ Sony Xperia Z1

20141207_qx5

遠く離れた宇宙へ(疑似)物質転送装置とグルメテーブル掛け

ちょっと遠くて、行くのも大変な(イメージの)宇宙へ行くには、今はロケットに頼っているわけですが、未来ではロケットを使わなくても済むかもしれません。それは宇宙エレベーターみたいな遠回りの物ではなく、まさにスタートレックに代表されるSFドラマの世界で描かれる物質転送装置やドラえもんの道具の様な物かもしれません。そんな技術に繋がる技術が、近年色々試されており、宇宙開発のフィールドでも使われ始めています。

一つ記事を紹介すると、米国ロケットベンチャー(ベンチャーと呼べる企業規模では既にありませんが)SpaceXが、ロケットのエンジンチャンバーの部分を3Dプリンターで作成し打ち上げたという記事です。

JULY 31, 2014
SPACEX LAUNCHES 3D-PRINTED PART TO SPACE, CREATES PRINTED ENGINE CHAMBER

printed_super_draco_3_lr
インコネルの3Dプリンタで生成したチャンバー部品
画像引用 : SpaceX (上記リンク記事より引用)

3Dプリンターは、最近世界中で大流行であり、米国なんかは国をあげてこの業界にてこ入れしています( NAMIIなどの設立 )。日本では、米国から取得したデータを用いて3Dプリンターで銃を作るという事件もおこりました。メディアレンタル業のDMMキンコーズなどいろいろな業種の企業が3Dプリント分野に進出し始めています。3Dプリンターが普及すると、日本の製造業(切削業)や金型がどうとか述べている人も多いのですが、ここでその辺りの予想を述べるつもりもありませんし、彼らは生真面目で繊細な技術があるので、時代が変わっても何とかやっていくと信じております。

さて、この3Dプリンターで作られた部品がロケットに使われたというのは、宇宙業界ではちょっとしたニュースになっています。私の会社でも、3年くらい前から主に樹脂部品で3Dプリント発注はしています。実際に宇宙には行っていませんが、適所での利用がはじまっています。衛星の部品は、軽量化でありながら強度を確保するという観点から、大きな材料の塊から必要なものだけ削り出す、いわゆる`削り出し`を多用しています。これは材料的には結構もったいなく、更に加工時間に伴って加工費が高いので、衛星開発コスト増に繋がります。一方で、3Dプリントですと、必要な部分だけ造形されてくるので、無駄な削り出しというのは概念的に存在せず、今後使用も増えてくるのではないかと思います。現在はまだまだ金属系が高価であるのと精度面で難ありのため、本格導入はもう少し成熟してからでしょうか。

P1060861
これは、DMMで作って貰ったナイロンの部品です。こういう簡単な部品は1週間少しで気軽に安価に作成できます。(おそらくDMM側もほとんどシステム化・無人化され、あまり人手は掛かっていないでしょう。)

さて、この3Dプリンターは、何も金属や樹脂などの部品だけではなく、食料にも使われ始めています。現在、多くのメーカーが参入していますが、米国3D Systems社のChefJetでは、チョコレートを始め、いろいろな食料材料を任意の3D形状で作成可能であり、今年中に個人向けに出荷が開始されます。


`ChefJet`, 3D Systems, Inc., Las Vegas, CES 2014.

今やサプリのコーナーに行けば、ビタミン、カルシウム、プロテインなり何でも粒状で売っているので、味と雰囲気を無視すれば、栄養面は確保でき、形状だけ見た目に美しい食事を作れそうです。食事本来の楽しみは皆無ですが(笑)。まさにドラえもんのグルメテーブル掛けに近い概念ですね。

3Dプリンターは、このように部品から食料まで幅が広がりつつありますが、その利点は、空間を擬似的にジャンプできることにあります。今は地上(陸海空)でのロジスティクスは発展し、世界中から数日で物が届くようになりました。一方で、まだまだ人類にとって、ちょっと遠いのは`宇宙`です。この地上と宇宙の距離を埋めるように、数日毎にロケットが飛び立つ時代になりましたが、それでもまだまだ物を軌道上(宇宙)に運ぶのはやっかいです。そこで、上述した様ないろいろな分野に幅が広がりつつある3Dプリンターを国際宇宙ステーションに持っていく計画が既に進んでいます。我々も、衛星の部品などは一つ一つ3D CADで設計して、地上で加工して打ち上げているわけですが、国際宇宙ステーションの様な、宇宙空間に設置してある3Dプリンターで出力すれば、厄介な地上と宇宙の距離を埋められそうです。SFドラマでは、地上からの物質を宇宙船などに転送することは基本技術として描かれていますが、それに近いことが実現に近づきつつあります。この記事のタイトルに`疑似`と書いてあるのは、金属で言えばチタン、チョコレートでいえば、クーベルチュール(カカオ)などの粉末材料を別途運ばなければいけないため、造形データだけ転送されている点で、まだまだ疑似でしょうね。これは、いずれ宇宙で作った部品を再度粉々にする技術などで再利用したり、月や火星などの星に上陸後では現地の材料で何とかなるかもしれません。

これに近い話で、少し話題を変えましょう。米国と並んで圧倒的な技術力と歴史がある旧ソ連・ロシアですが、彼らは`コバルトM`と呼ばれる素敵な偵察衛星を持っていて、未だに現役で使っています。

0506kobalt-m
Image courtesy from Russian Space Force.

この偵察衛星は、アナログカメラ、つまりフィルムカメラで(主に米国などの)他国を0.3mの分解能で写真撮影し、そのフィルムを地上へ再突入カプセルで落下させ、回収しフィルム現像するというものです。こんな事をやってしまうのはさすが旧ソ連・ロシアの宇宙軍だなと感心してしまいます。

今やロシア以外はディジタルカメラによる衛星からの撮影が主流です。これも空間転送の一つと言えるかもしれません。昔は、フィルムに感光していた写真を、今やディジタルカメラで撮影しディジタルデータにし、電波で地上に送信することで、実際にフィルムを地上に落下させる必要はなくなりましたし、新たに新しいフィルムを打ち上げる必要がなくなりました。そういう意味で、あらゆるものをディジタル化できれば、ちょっと遠い宇宙へ気軽に持って行ける(転送できる)時代が来るかもしれませんね。

ここで紹介した材料・食料の3Dプリンターを宇宙や他の星で生成するのは技術的には目処がたちはじめています。それよりも興味深いのは、我々人間などの生物を分子レベルで3Dスキャンしディジタルデータ化し、宇宙で3Dプリントで生成したときに`記憶・意識・性格・感情`などもコピーされるのでしょうか。このあたり3Dプリンターだけでなく、3Dスキャン技術も近年発達してきていますし、さらに人間の記録・記憶に関わる脳波in / 脳波outなどの技術もやはり米国を中心に進んでいますから、生物の`肉体的な物質以外の部分`の転送も可能になるかもしれませんね。宇宙旅行も、ロケットを使わずに`物質転送`で行く時代がくるかもしれません。しかし、脳波や記憶などをコントロールするようになれば、転送技術を使った宇宙旅行すら実際には行かず、既に行った方の記憶を脳に植え付けて`行って来たことにする`などの技術も出てくるかも知れません。

Sony α7R(ILCE-7R)のEVFの魅力を動画で淡々と語る。さらに電子接点付きマウントアダプターを介したCanon EFレンズの使用感も淡々と語る。

Sony α7R (ILCE-7R)の魅力はもちろん小型軽量ボディにフルサイズという画質性能ですが、もう一つミラーレス一眼らしいEVF(Electrical View Finder)の魅力がとても素敵です。私の様に古いカメラを使ってきた人間は、往年の一眼レフの光学ファインダー(OVF = Optical View Finder)に慣れており、EVFは見えにくい・遅いなどに理由で避けがちです。しかしα7Rを使い始めて、画質以上にこのEVFの魅力と将来性に惹かれています。そのEVFの様子を動画で淡々と語ります(笑)。後半では、電子接点付きマウントアダプターを介したCanon EFレンズがどの程度使えるかも時間を見つけていずれ紹介したいと思います。


その1(Full HDでご覧くだされ):https://www.youtube.com/watch?v=jXGAgaceDwk
* 画面の(特に下部)にピンクの横縞のようなモアレが発生していますが、これはα7Rの背面液晶を別のディジカメで撮影していることによるものであり、α7Rの背面液晶でこのような現象は発生しません。動画後半で(この動画撮影側の)ピントを調整することが改善するのでご承知置きください。


その2:https://www.youtube.com/watch?v=m8ivi-f43Og

* 追記:EVFの一番の機能を紹介しわすれました(笑)部分拡大です。これはOVFの一眼レフでも最近はミラーアップして実現していますが、MF時に拡大してピントを合わせられるのもEVFの魅力の一つですね。基本的な機能すぎて紹介を忘れました。

https://www.spacewalker.jp/wp-content/uploads/2014/04/20140215_sonya7_2l.jpg”>20140215_sonya7_2
その1:
https://www.youtube.com/watch?v=WY3hWmIlA3g


その2:https://www.youtube.com/watch?v=2fPLXmLtlzI

Mr.Orbit3: 人工衛星がどんな感じで地球を回っているかを魅せるシステムのバージョンアップの紹介

先日バージョンアップした`人工衛星がどんな感じで地球を回っているかを魅せるシステム`のMr.Orbit2ですが、この度Mr.Orbit3にバージョンアップしました。

Mr.Orbit3 : https://www.spacewalker.jp/~mrorbit/

20131012_mrorbit3

‘旧版’の参考記事:人工衛星がどんな感じで地球を回っているかを魅せるシステム(Mr.Orbit2)の公開
*以下は、Mr.Orbit2の時の内容と前半は一緒で、Ver3に加わった内容を最後に追記しています。

◆概説

宇宙ステーションや我々が開発して打ち上げた人工衛星の軌道をウェブブラウザー内のGoogle Earthプラグインを用いて表現しています。それぞれの人工衛星の現在の位置をリアルタイムで計算して表示しています(動いているはずです)。緑の線は今から100分後までの衛星が通る軌道を表しています。たとえば宇宙ステーションでは、地上から約350km上空を回っています。こうやってGoogle Earth上で見てみると遠い星(恒星)の世界に行っているわけではなく、地球のスレスレを沿って回っていることが分かりますね。

◆使い方

1)Mr.Orbit3のウェブページ( https://www.spacewalker.jp/~mrorbit/ )を開く。Google Earthプラグインがインストールされていないブラウザではインストールが開始されます。その場合はブラウザを立ち上げなおして再度ページを開いてください。留意点として、少し重い処理を行っている関係で、稀にページの初期表示に失敗することがあります。その場合は、リロード(F5 or Ctrl + R)でページを読み直してください。Google Chrome, Firefoxを推奨IEで動かない場合は、互換モードでお試しください

2)ページが正常に開きますと、画面中央に国際宇宙ステーション(ISS (ZARYA))が表示されるはずです。さらにその宇宙ステーションのアイコンがどんどん動いているのが分かるかと思います。第一宇宙速度という時速28000kmで回っていますので、かなりのスピードで地球を回っているのが分かるかと思います。
*留意:やや重い処理をしているので衛星が動いていくはずなのに止まってしまうことがあります。その場合はページをリロードしてください。

3)”衛星の選択” : 画面上部Satellitesのセレクトボックス
国際宇宙ステーションの他に私達が学生時代に開発して打ち上げた衛星が選択できます。衛星名を切り替えると、その衛星が画面中心になるように視点が移動します。

4)”衛星と視点との距離の設定” : Range[KM]のテキストボックス
衛星の居る位置から画面の視点は”距離を離して”見えています。初期値は2000km。この数値をたとえば0kmに設定すると、画面の視点は衛星と同じ場所になり、まさに衛星から見た眺めになります。ちょうど宇宙飛行士達が宇宙ステーションの窓から見ている視点になるわけですね。

5)”視点の上下角設定”: Tilt Angle[deg]のテキストボックス
視点を地球中心(真下・鉛直方向)を0度、衛星の進行方向(水平方向)を90度として、視点の角度を変更できます。初期値は45度。4)のRangeを0kmに設定して、このTiltを0度にすると宇宙ステーションの宇宙飛行士が、地球に向かって真下に見ている視点になります。いろいろ変更してお楽しみください。

6)”画面の表示方向の設定” : Heading Angle [deg] のテキストボックス
この角度を設定すると、画面の見ている方向(水平方向)の角度を変更できます。説明が面倒なので(笑)、いろいろいじってみてください。すぐに理解できると思います。留意として後述する`Auto Heading Angle Control`モードがOnになっていると、この数値は自動計算になり変更できません。

7)自動追跡モード : Auto Trackingのチェックボックス
このチェックボックスにチェックが入っていると、衛星が画面の中央になるように自動で追跡してゆきます。しかし、あくまで衛星が画面の中央に持ってくるだけの追尾なので、衛星の後ろを追跡したい場合は後述8)を。

8)自動追跡+衛星の後ろを追跡するモード:Auto Heading Angle Controlのチェックボックス
このチェックボックスが入っていると、7)の自動追跡に加えて、衛星が進んでいく後ろを着いていくように画面方向(Heading Angle)を自動計算して追跡してくれます。この角度計算は結構気まぐれなのでチェックボックスを入れてしばらくして動いたり、たまに計算を間違えて変な方向に一度向いて戻ったり、愛嬌がありますのでアシカラズ。

◆Ver 2.0 -> Ver 3.0の変更点

9) 観測点の設定 : Your Ground Pointセレクトボックス
衛星を見ているあなたの地上地点を都道府県庁所在地として設定できるようになりました。初期値は東京都。皆さんの現在位置に近い都道府県を選ぶと、その地点から衛星がどの方向に見えるか(方位角[azimuth], 仰角[elevation], 距離[range (km)], 距離レート[range rate (km/sec)]などを表示できます。上の図に表示されている様に仰角が0度以上の時は、地上地点と衛星間に青いリンク線が描画されます。

10) 自動追跡モードチェックONの時に各種数値の表示
自動追跡モードにチェックを入れると、衛星の現在の位置(経度・緯度・高度)、速度、また、9)で設定された地上地点からの方位角・仰角・距離・距離レートなどがマップの上に表示されます。

11) 衛星のアイコンの横に衛星の位置情報を表示
衛星のアイコンの横に衛星名に加えて、経度(lon), 緯度(lat), 高度(alt : 単位km)の表示を追加しました。

◆Mr.Orbit3 まとめ
・人工衛星のスピード(時速28000km = 秒速7.9)
・地表のスレスレを回っていること
・宇宙飛行士が窓から見えている景色
・地上から衛星がどの方向を通過しているかわかる
など少しでも人工衛星が地球を回っているイメージが伝わると嬉しいかなと思っています。

(祝)東京オリンピック・パラリンピック2020。そして東京および日本がこの7年間でやるべきことを考える。

2020年のオリンピック・パラリンピックが東京で開催されることが決定しました。この決定までに相当な労力があったと思いますし、プレゼンに登壇された方、後ろで支えた方達含め、本当にお疲れ様でしたと申し上げたいです。本当に選ばれて良かったです。

さて、7年後の開催に向けてまさにこれからというわけですが、ある意味インフラが充実している東京ですと、無難な開催であれば、普通にやっていれば実現可能だとは思います。しかし、2020年のオリンピック・パラリンピックその時だけ良ければOKみたいな方針にするのはあまりにももったいないと思います。やはり、この機会をきっかけにこれからの東京、日本、そして世界へ発信する都市デザイン・日本技術・文化のモデルケースになり得る開催にすべきかなと思っています。

これからの7年間、時間にしては短すぎず、長すぎずの良い期間だと思うので、こんなのが実現できたら面白いかなというのを考えてみようと思います。面白いかなではなく、”やる”と思わないと何も実現しないですね。

●`omotenashi`ではなく、`おもてなし`の再考。

今回のプレゼンでも使われた`おもてなし`という言葉。同じく世界でも(国連などでも)使われているらしい`mottainai`(もったいない)などの言葉。日本の言葉を横文字で表現するのは良いのですが、その`おもてなし`というのを日本人は知った気になっているのではないかなと。かく言う私も例外ではなく、茶の湯の世界に触れ、何となく日本の文化を知った気になっていた自分に気が付きました。横文字になったイマイチよく分からない`omotenashi`ではなく、本質的に日本的に美しいおもてなしができるように。それはきっとド派手な演出ではないはずです。

chanoyu

●日本の伝統文化のまず我々の認知と事業維持

(これは言われなくてもやるかとおもうのですが、)おそらく開会式は着物でしょうし、和太鼓なり祭のテイストで行われるでしょう。そういう演出プロデューサーが、一部の有名な日本の文化を採用して外国に見せるのではなく、この機に我々日本人がちゃんと日本の多くの文化を勉強し認知し、良い物を見極める目(+五感)を育て、その文化(事業)を維持するにはどうすれば良いか考えたいものです。ユニクロのような安価大量消費・捨て文化の一部をちゃんと見直せるように。もちろん、それは日本食文化も含めて。
茶の湯を初めてから国内様々なところに訪ねていますが、そこで感じるのはとても良い文化があっても、それをうまく表現することに苦心しており、結果後継者も育たず困っている場面に出会します。東京にはピンからキリまでコンサルと呼ばれる職業の方が実に沢山いるようです。その一部の方達には自分の事業を3年間休んで地方に飛んでその能力を活かしてこの問題に取り組んで欲しいと思います。都内の狭いところで、例えば一つのITシステムを導入させるのに優秀な連中が切磋琢磨して凌ぎ合っているより、ごっそりその頭の使い先をシフトさせてもらいたいです。国の支援・法律などで、彼らにそういう時間を作らせることができないでしょうか。とはいえ、東京で使っているような何でもロジカルに考えすぎると、また掴みにくいのが日本文化なのですが(笑)。いろいろな物を手に持って見てみないと分からない(写真では伝わらない)世界があることを知って欲しいですね。漆・塗の文化なんて角度があるので写真ではその素晴らしさが伝わりません。

houkokuji_kamakura

●電力システムの見直し

今回の招致運動でも毎度質問されていましたが、3.11の福島第一原発の処理は難しい問題です。少なくとも3.11から2020年までの約10年で原発を収拾させるのは絶対目標に掲げたいですね。まだまだ第一原発の建屋はテントが掛けられたままで中は手つかずです。あまりの高線量に人が近づけませんから、作業は困難を極めますが、山側からどんどん水が流入していて、最近の漏れも含め、ゆっくりやっているわけにはいきません。2020年をリミットと位置づけて何とか収拾させ、もし事故が起こった場合にどのような構造になっていると収拾させやすいのかなど、設計にまでフィードバックできるようにしてもらいたいですね。世界にある既設・新設原発に向けて少しの修正で改善できるかもしれません。

また、この会場・施設・運営には、直流ネットワークに挑戦してもらいたいです。電力の地産地消とでもいうのでしょうか、電力を遠くから送電するのは無駄が多すぎてもったいないです。風力、太陽電池などのローカルで発電でき、それを一度交流に変換してまた熱にする様な無駄な熱・電気変換を最小にする電力マイクロネットワークを一地域でも実現させて世界に発信してほしいです。すくなくとも晴海・有明・お台場地域はそういう特区にしても良いと思うんですけどね。

2009年の古い記事ですけど、昔このブログでも書いています。
参考:人類として最も進化した”住み方”を考える。完全自家発電自給自足ハウスモデルの提案。

また電力に関わりますが、ボストンの町並みが綺麗なのは一時あった電線を全て地下に埋めたからだと思っています。電線が飛び交って、窓から白シャツとパンツが干してあるのもアジアっぽいですが、そのあたりは脱却して、ちゃんと電線を地下に埋めて欲しいです。毎年2~3月の予算使い切りで綺麗な道路を無駄に掘り起こすのであれば、予算使い切りは全て電線の地中埋めに使うみたいな流れになれば良いのですが。

wakasu_w

●首都圏交通ネットワーク+スマート避難システムの構築

東京の交通網は正に網の目です。網ですから、どこにでも行き渡っている様に見えて、それが各種利権の縦割りでそれが有機的に結合できていません。機械的に編み目になっているだけです。東京メトロと都営地下鉄の`馬鹿の壁`がやっと撤廃される様ですが、JRも含め東京の駅を三次元的に見てもっと最適な接続を再検討していただきたいです。パラリンピックも開かれるのでバリアフリーはもちろん、日本語が分からない外国人がきても100%絶対に迷わず最適(+ちょっと遊びで観光ができる)交通ネットワークシステムを作って欲しいですね。
東京に限らず日本のバスの路線図って最悪だと思っています。例えば”何系統の何とか神社行き”とかって地元の人しかわからないですよね。全部のバス停がバス停の看板には書いていなかったり、バス停の自体が見つからなかったり。正直バス会社は路線図作成に努力が足りないと思っています。日本人でも分からないのですから、外国人がわかるはずがありません。地下鉄・鉄道・そしてタクシーとの垣根を越えて実にスマートな交通システムを確立してほしいです。たぶんそれができるようになると、まもなく発生する首都圏直下地震のスマートな人輸送にも使えると思うんですよね。網を貼っていれば魚がひっかかるわけではなく、戦略をもって交通網を見直したいものです。スマホ利用前提でも良いと思いますし。
それに関連して、首都高整備など道路見直しも出てくるとおもいますが、真っ先に日本橋の上の首都高を撤廃してほしいです。高度経済成長時代の第一回東京オリンピックで突貫工事でつくり、今回成熟した第二回の東京オリンピックで撤廃したみたいなストーリーがよろしいかと思います。日本橋在住としては、日本の道路基準に空が無いのは悲しすぎます。

●首都圏のビル風・アスファルト照り返しの異常な暑さへの対策

上述の電力システムの見直しに近いのですが、熱い熱いとエアコンを入れて、室外機の熱風をまた別の部屋でエアコンで冷やして・・・という繰り返しでは熱くなるばかりです。今まで原発を好き勝手に建設できた時代は、都心が要求した電力をまかなうように原発を増発すれば良い話でした。3.11以降もう一度節電意識を高め、とにかく首都圏から電力を要求しない体制を作らなければなりません。
首都圏からの電力は地方から相当な電送ロスをもって運ばれ、何かの電化製品を通して熱に変わるわけです。この暑さは(一時的な)異常気象もあるわけですが、まず東京で電力→熱変換をさせない意識を高め発熱を激減したいものです。細かい話でいえば、DC/DCコンバーターなんてこの最近は変換効率で90%近いです。PCに代表されるようにちょっと使わなければスリープに入る技術も成熟しました。この最新の電力変換デバイスとこまめなスリープ機能を電力食い虫の工場の各施設に(国の支援も使って)導入をはかり、たとえば旋盤などの工場機械も直ぐにスリープに入って電力が落ちるなど、徹底的に省電力化をはかりたいですね。全ての工場機械にスリープ機能は必須みたいな法整備が必要かと思います。たぶん旋盤などの機械まで導入すれば世界でも売れるはず。
あと、アスファルト・コンクリート・ビルの壁の素材など、もう少し光学的(α・ε)を考えた材料を導入してもらいたいですね。面積に効いてきますから、今後建設するビル・道路などは、最先端の素材で作り替えていけばいずれ大きく違いが出てくると思います。自転車は走りにくくなりますが、自動車道では、アスファルトと草をゼブラ的な道を作ってみるとか・・・。

*****

ダラダラ書いてしまいましたが、2020年の期間中だけ乗り切る開発ではなく、7年後以降のスマート東京(次世代東京)になるように意識を変え、そしてそのモデルが世界に発信し、そのモデルに関わる産業が儲かるようになればと願うばかりです。たとえば、今の日本の緊急地震速報なり水道システムなんて世界で十分に売れると思います。私もエンジニアの端くれとして技術面では努力と、茶の湯を嗜む面から本当の日本の美・文化に向けて情報を発進して行きたいと思います。

 

ライカがM9-MとM9-Pエルメスエディッションを発表。

独ライカが、とっても素敵なカメラを2つ発表。私もお金があれば是非欲しいM9をベースに、

1)モノクロ専用(もちろん世界初):M9-M (Monochrom)

公式サイト:http://jp.leica-camera.com/photography/m_system/m_monochrom/

 

2)ブランド”エルメス”との2回目のコラボ製品:M9-P エルメスエディッション (Hermes Edition)

公式サイト:http://jp.leica-camera.com/photography/special_editions/m9_edition_hermes/

 

以上の2製品を発表しました。え?デジカメなんてNikon, Canonが世界で最も高画質じゃないの?と思われるかもしれません。ほとんど正解です。
しかしライカのMシステムは求めるものが違います。”良い物作り”を感じる官能的なカメラ。この感覚は言葉で説明できるレベルじゃありません。しかも、いきなりライカMシステムのカメラを買ってきて使っても分かることは半分くらいかもしれません。NikonなりCanonなりのいわゆる普通の一眼レフの使用フィーリングに慣れた頃にMシステムを使うと、その感動たるや素晴らしき事限りなし。ライカのレンズ群も素晴らしいです。あのヘリコイドのタッチフィールを知ってしまうと、他のレンズはゴミと思ってしまいます(笑)。両製品とも値段は敢えて書きませんが、カメラに詳しくない方でしたら、値段を見て驚愕されると思います。

エンジニアとしては、こういう物作りは本当に素晴らしく、羨ましく、ほほえましく、是非今後も続けて欲しいとは思います。このご時世にモノクロ専用のデジカメを出せるのは確かにライカ社しかありません。 私の衛星ベンチャー企業も、こういったユニークな製品が作れる会社を目指したいですね(現状はその状況だと思っていますけど)

お金が余って仕方がない方は、エルメスエディッションの3本レンズセットを是非お求めください!!

(一方で、モノクロのサンプルがしょぼいんですよね・・・。まだプロトタイプのものでしょうか・・。もう少しうならせるサンプルが出てくると良いのですが・・・)