先週の水曜日、"Made by Google"という名称になって2回目のGoogleのハードウェアイベントが、San Franciscoで開催されました(去年のMade by Googleイベントのポストはこちら:「AIファースト」のGoogleと「Peopleファースト」のFacebook)。
日本でもようやく先週発売されたAIスピーカー、Google Homeの小型版 Google Home MiniやPixelスマホの最新版 Pixel2など、様々なハードウェアが一気に発表されました。
今回発表されたハードウェアは以下の通りです。
- Google Home Mini(Google Homeの小型版)
- Google Home Max (Google Homeの大型版)
- PixelBook (Chrome OSの新しいラップトップ)
- Pixel2(スマホPixelの新バージョン)
- Daydream View (VRヘッドセットの新バージョン)
- Pixel Buds (翻訳機能つきワイヤレスヘッドフォン)
- Google Clips (ファミリー用カメラ)
こちらのハイライト動画でもエッセンスは一応伝わりますが、Googleの今、AIの今にご興味ある方には、2時間弱の全編をご覧になることをオススメします。私は最初から最後まで飽きずに一気に見てしまいました。
「AIは単なる新しいテクノロジーではなくモバイルに匹敵するプラットフォームになる」という意味で、2016年のMade by Googleイベントから使われるようになったのが「AIファースト」というキーワードです。
今年5月に開催された開発者イベント Google I/Oでは、AIがAIをデザインするAutoMLやMachine Learningに最適化されたチップTPUなど、様々なAIファーストの進化が発表されました(ブログ:AIがAIを生み出すAIファーストの「7つの進化」。Google I/O 2017)。
そして、今回のイベントを通じて新たに使われたキーワードは、「AI+software+hardware」。
この1年間、ソフトウェアとしてのAI、Google Assistantなどのサービスが次々と発表されてきましたが、今回は、AI、Machine Learningを前提としたハードウェア、AI、Machine Learningをフルに活用するためのハードウェアが多数発表されました。
今回のポストでは、今回のイベントで発表されたGoogleが考える「ハードウェアとAIの融合」が体現された新製品、そしてGoogleが考えるAIの進化の方向性について取り上げます。
一つ目は「ヘッドフォン」です。
Google初のヘッドフォン製品となる Pixel Budsは、写真にあるようにヘッドフォンの外側がタッチセンサーになっており、タッチをするとGoogle Assistantが起動します。
「オフィスまでどのくらいかかる?」「ワークアウト用のプレイリストかけて」「Scottに「すぐに着くよ」ってテキストして」など、屋外にいるときにスマホを取り出さずにGoogle Homeのような使い方が可能です。
そして、とっておきの機能は、翻訳です。
タッチをしながら「英語を話したいです」と翻訳機能を立ち上げると、自分の言葉が相手の言語に、相手の言葉が自分の言語になって聞こえるようです。
実際に製品に触れるのは来月の後半くらいになりそうですが、デモを見る限りでは(この動画の1:34から)、相手の発話後にほぼ間をおかずに翻訳されるため、海外のレストランや街中で道を聞いたりするのには十分に使えそうです。
スマホで音声検索や翻訳を使う人もかなり増えましたが、屋外での利用を想定すると、このヘッドフォンという形は最適だと思います。
Pixel Budsは、AI、Machine Learningをフル活用するためにハードを作るというGoogleの意思が表れた、最もわかりやすい例だと思います。
二つ目は「カメラ」です。
Google Clipsは、一見普通の小型カメラですが、これまたAI、Machine Learnin前提の設計になっています。
当初は、子供やペットの撮影を主なユースケースとして想定しているということですが、スマホを出そうとする間に終わってしまう決定的なシーンを撮るためのAlways Onのカメラです。
AIを利用して、家族、友人、ペットなどの特定の対象を自動で認識し、みんなが笑顔の瞬間など、その重要な場面を自動的に記録します。ネットワーク接続を前提とせず、そうした処理は全て端末内で処理されるようです。
16GBのメモリーが内蔵されており、3時間分のMotion Photos(瞬間の前後の動きも記録される)が記録できるということです。Motion Photosは、Google Photoで時々提案されるダイジェストクリップのようなものだと思います。
顔認識が一般的になった今、撮影対象の顔を認識してフォーカスを当てるというのは、カメラやスマホにとって今は当たり前の機能となりました。
Google Clipsは、そこからもう一段発想を進めて、「AIで撮影を補助する」のではなく、「AIが勝手に映像を撮る」という形に「AI前提でカメラを再定義」し直した製品と言えそうです。
まだプレオーダーも開始されていないようですが、実際に触るのが楽しみな製品です。
三つ目は「ドアベル」です。
これはGoogle本体ではなく、最近あまりニュースがなかった子会社Nestの製品です。
Nestの新製品、スマートドアベル Nest Helloには、カメラが付いています。
類似製品にもあるように、このカメラを通して、玄関に誰が来たのかをスマホで確認したり、会話をしたりすることができます。
さらに、AIを利用した"Familiar Faces"と呼ばれる機能では、親戚や友人などよく家に来る人の顔を記憶して、おばあちゃんが玄関に来ると、スマホの画面を見る前に「おばあちゃんが来たよ」と声で知らせてくれるようです(この動画の、31:20から)。
これ、非常に地味な機能ですが、面白いですよね。
これもAIの力を活かした新しいハードウェアの価値を体現していると思います。
今回のイベントの主役であり、ついにバージョン2となったスマホ Pixel2にも、AI、Machine Learning前提の機能がいくつもあります。
一つは、Google Assistantのインターフェース。
Pixel Budsをして入れば、表面をタッチするだけでGoogle Assistantが起動しますが、Pixel Budsをしていなくて、Pixel2の本体を「握る」だけで起動できるようになりました。
実際に触って見ないとイメージが湧きにくいですが、スマホをギュッと握るだけで、Google Assistantが起動するのです。
このActive Edgeという新しいインターフェース、普通に持っているだけで誤動作しないのか気になりますが、デモを見る限り自然な操作のような気がします。
そして、5月のI/Oで発表された画像検索機能 Google Lensも、ついにPixelだけでプレビュー版が公開されます。
張り紙から自動でメアドを読み取ったり、絵画、映画のポスター、寺、なんでもGoogle Lensにかざすだけでその関連情報が検索できたり、商品であればその場で購入できたりするようになります。これはPixel Budsの翻訳機能以上に、利用シーンが無限にあるパワフルな機能です。
プレゼンターが、Google Lensを使うことを「Lens it!」と言っていましたが、将来的には「ググる」と同じレベルの動詞になるくらい一般的になるのかもしれません。
また、ARも、今回のPixel2で実装されています。
Appleも今回iOS11でARKitをリリースしましたが、Pixel2にもAR SDK、ARCoreが実装されています。今後、様々なデベロッパーから、ゲーム、コマース、ツールなどいろんなアプリがリリースされるようです。
そして、GoogleのARで特にユニークなのはこの「ARスタンプ」です 。
写真に写っているのは、Netflixの人気オリジナルドラマ Stranger Thingsの二つのキャラです。
ARスタンプでは、Snapchatのように顔にスタンプを乗せるだけでなく、リアルな空間上にこうした複数の動く3Dキャラクターを配置することができます(この動画の1:15あたり)。しかも当然動いたり、戦ったりします。
Netflix以外にも、NBA、YouTubeなどいろんなパートナーから動くARスタンプが提供されるということです。「ステファンカリーのキャラと一緒にバスケをする動画」なんかを撮ってシェアをするなんてこともできるようになるのでしょうか。
Pixel2、そもそもスマホとして、カメラも最高の評価を得るなど基本機能も素晴らしいのですが、使ってみたい新機能満載のまさに「AIスマホ」になっています。
さて、ここまでGoogleが発表した新しいハードウェアたち、そしてその裏側にある「AI + software + hardware」という考え方について説明をしてきました。
今回発表されたハードウェアたちはいずれも刺激的で、消費者として興奮を覚える一方で、「AIの世界でGoogleがますます強くなる」ということに危機感も強く感じます。
最後に、「AIファーストの進化の方向性」について触れたいと思います。
プレゼンの冒頭にCEOのSundarが触れたGoogleのビジョンについての話ではあるのですが、これからAIをご自身のビジネスに取り入れることを考えられている方々にも、「AIをどう取り入れて行ったら良いのか」を考える参考になる考え方だと思います(動画では5:30から)。
一つ目は「Conversational, sensory(会話型、感覚的)」。
最近は色々なインターフェースがどんどんチャット的な"Converational Interface"になって行っていますが、AIも人と会話をしているように自然にシームレスに使えるようになっていく。
二つ目は「Ambient, multi-device(周囲の、マルチデバイス)」。
そして、スマホだけではなくいろんなデバイス、スクリーンに広がっていく。必要な時に必要なデバイスで常にアクセスできる。
三つ目は「Thoughtfully contextual(文脈を理解する)」。
ID、場所、嗜好など、その人の行動、状況により適した情報、コンテンツ、リコメンデーションが提供できるようになる。
四つ目は、「Learns and adapts(学び、適応する)」。
学習はAIのベーシックではありますが、SundarはGoogle Calendarの例を挙げていました。
彼は、週末には、来週一週間の全体の予定を見て週の全体像を把握しようとし、週が明けるとまずは次の予定は何かを細かくチェックする。なのに、今のGoogle Calendarはいちいち自分でビューを変えないといけない。AIはその人の行動を学び、先回りした適切なビューを表示するべきだというわけです。
--------
この4つはユーザ目線で見れば、どれも当たり前のことですがまだまだ実現できていないサービス、ハード、商品ばかりだと思います。
Googleと直接的に競争しなくてはならない自動車メーカー、家電メーカー、カメラメーカーなどは、いかにこうした視点を先回りして自社の製品に取り入れていくかが勝負の鍵になっていくでしょう。
一方で、金融機関、小売、メディアその他様々な業種の方々は、ここにあげられたようなAIの進化の方向性を参考にしながら、改めて自分たちのビジネスを再定義、再構築していくということが求められているのだと思います。