[本記事は、Android Developers Blog にて、Google の Android Developer Ecosystem チームの Eric Chu が執筆した In-app Billing Launched on Android Market を翻訳・再構成したものです-山崎]

3 月 29 日(米国時間)、Android マーケットでのアプリ内課金サービスのローンチが発表されました。これにより、Android アプリ開発者の皆さんは、このアプリ内課金サービスを利用したアプリケーションを公開することが可能となり、アプリケーションのユーザーの皆さんは、アプリケーションの中で購入することができます ...


[本記事は、Android Developers Blog にて、Google の Android Developer Ecosystem チームの Eric Chu が執筆した In-app Billing Launched on Android Market を翻訳・再構成したものです-山崎]

3 月 29 日(米国時間)、Android マーケットでのアプリ内課金サービスのローンチが発表されました。これにより、Android アプリ開発者の皆さんは、このアプリ内課金サービスを利用したアプリケーションを公開することが可能となり、アプリケーションのユーザーの皆さんは、アプリケーションの中で購入することができます。

アプリ内課金サービスは、お試し購入、バーチャルグッズ、アップグレード、その他の課金モデルによって、Android アプリで収益をあげる可能性を広げます。なお、アプリ内課金サービスの詳しい説明はこちらをご覧ください。

本日ローンチするいくつかのアプリケーションはすでにこのサービスを利用しています。たとえば、ディズニーモバイルの Tap Tap Revenge、ComiXoligy の Comics、Glu Mobile の Gun BrosDeer Hunter Challenge HDWSOP3、Trendy Entertainment の Dungeon Defenders: FW Deluxe などです。


試してみようという方は、まずは、詳しいドキュメントをご覧いただき、この中で提供されているサンプルアプリケーションをご覧ください。このサンプルアプリケーションでは、アプリケーション内でのサービスの実装、Android Market でのプロダクトリストのセットアップテストの方法を説明しています。また、安全な実装を行うためにセキュリティガイドラインを必ず読んでください。

ぜひこの新しいサービスが皆さんのアプリケーションで活用されることを願っています。



Hack For Japan ですが、3月19日/20日にアイディアソン、3月21日にハッカソンを無事終了しました。ご協力頂いた皆様、本当にありがとうございました。ただし、Hack For Japan 自体はまだ始まったばかり。あくまでキックオフが終わったのみであるということ、ご理解ください。

突貫で作った物でブラッシュアップは必要ですが、基本的なインフラは整っています。開発者以外の皆様、 ...


Hack For Japan ですが、3月19日/20日にアイディアソン、3月21日にハッカソンを無事終了しました。ご協力頂いた皆様、本当にありがとうございました。ただし、Hack For Japan 自体はまだ始まったばかり。あくまでキックオフが終わったのみであるということ、ご理解ください。

突貫で作った物でブラッシュアップは必要ですが、基本的なインフラは整っています。開発者以外の皆様、「こんなサービスを作ってほしい」と考えておられる場合は、Google Moderator に投稿、もしくは投票してみてください。開発者の皆様、「何か役に立ちたいけど、どんなサービスが求められているのかわからない」と思っておられる場合は、Google Moderator をご覧下さい。「アイディアはあるけど、インプリについて有志で議論したい」と思っておられる場合は、Google Wave で聞いてみてください。「サービスを作ろうと思っているけれど、クラウドってお金がかかるよね」という場合は「利用できる技術」のページをご覧下さい。たくさんの企業が無料もしくは低価格で被災者支援プロジェクト向けのプログラムを提供しています。「ツールはあるけどデータがない!」という場合は、「利用できるデータ」のページをご覧下さい。

さて、一旦ここまでのまとめをシェアさせて頂きます。Google Moderator を通じて開発者がアプリ開発に使えそうな素晴らしいアイディアをご提案頂き、Google Wave 1 日目,  2 日目3 日目を通じて有意義な議論を行って頂き、既にいくつかのプロジェクトを開始して頂いております。

3 月 24 日現在のデータとしては:
賛同企業 15 社/賛同者 549 人。* 登録をせずに、オンラインでの議論やハッカソンには参加している方は是非賛同者登録をお願いします。
Google Moderator 上では 565 人の方にご参加頂き、258 個のアイデアと 5,447 個の投票が行われました。
Google Wave 上では、1,279 個のコメントが寄せられました。1 日目,  2 日目, 3 日目
Twitter での議論のまとめこちらをご覧下さい。
英語での Google Wave での議論はこちら
京都会場(62 人が参加)の写真はこちらこちらこちらにアップロードされています。
福岡会場(7人が参加)
岡山会場(10人が参加)の写真はこちらにアップロードされています。
徳島会場(4人が参加)


Hack For Japan
[京都会場での集合写真]


「3月19日/20日がアイディアソン」と説明しましたが、これは21日のハッカソンに向けて、というお話。アイディアソン自体は続きますので、いつでも Moderator や Wave にアイディアを追加して下さい。また、ハッカソンは企画した人がどんどん開催していく形式ですので、既に京都ハッカソン第二弾/大阪ハッカソンなどが検討されているようです。更には海外にも飛び火し、アラブ首長国連邦(UAE) のドバイで約 50 人が参加した #hack4jp ハッカソンが開催されたとの報告が届いています。

さて、もう少し詳細もお伝えしていきましょう。Google Moderator はアイディアの宝庫です。そこで Moderator にあがっている上位10個のアイディアをご紹介します。

Google Map上に避難所を表示し、そこに避難所の情報(避難している人­数、足りないものなど)を紐付ける。避難所へのルートも確認でき­るようにし、支援物資の輸送の手助けとする。とにかく情報が分か­りやすく確認できるものが必要だと思います。

避難民受け入れマップ:非被災地の自治体で被災地地域住民の受け入れを表明している情報を一覧可視化、空き情報などをアップ­デート、ネットや通信環境が充分でない人のために斡旋仲介をで­きる体制など。

支援物資の避難所までの経路を中継地点ごとにビジュアルで表示­し、支援物資の需要と供給を一元管理できるような仕組み。 各避難所からは必要物資と数量を書き込め、各避難所に近い中継地­点にもそれらの数値が反映される。 また各中継地点には、中継可能地点や全国からの送付受付可能かど­うかなどの情報や現時点の在庫、必要数、倉庫のキャパシティなど­の情報が表示される。 避難所はもちろん近隣や隣県で倉庫を持っている人などは中継地点­としての登録もできるようにする。

各避難所に泊まっている人数や、家がなくなってしまって探して­いる人の人数、問題を抱えている人の人数がタイムラインになって­いて、日々の改善状況が一目でわかるシステム。改善されていない­避難所を知るために必要だと思います。

被災各地での技術者マッチングシステム。医療関係者からボラン­ティアまで、「どの場所にどういった人材が不足しているか」を被­災者または現地訪問者がアップロード、支援者(または現地で活動­可能な方)とのマッチングを行う。またその際「今すぐ必要or1­週間以内」「作業従事者or資格保持者or 資格なしでも可能」「­機材として○○希望」などのタグを設け、適切に必要な人材が手配­できるようにする。復興期においては、同プラットフォームを人 材­募集にも活用できると良いか。

震災では、今後、中長期的に、こころのケアがとても重要になっ­てくると思います。東京都福祉保健局によりこのようなPDFファイルが作成され配られていますが、この11­ページや12ページの質問項目を使って、スクリーニングツールを­作成したり、携帯端末でこの資料にあるような内容を一般向けに分­かりやすく伝えるツールを作成したりすることはどうでしょうか?­

リアルタイム電力消費メータ。東電さんからはデータを提供して­いただく。 都民は、そのリアルタイム電力消費メータを確認して、随時節電を­敢行。

現在の交通の復旧状況を前提とした経路検索。既にリリースされ­ているGoogleとホンダのマッシュアップ地図を利用。主に東­北エリアを対象とするが、首都圏版では駅の混雑状況共有もできる­とよい。

震災後に「飲み水を確保する方法」、「食べも物を確保する方法­」、「SOSをあげる方法」、「寒さ、暑さをしのぐ方法」、「応­急処置の方法」が辞典 になってるアプリケーションが欲しい。WE­Bサービスでなくってアプリケーションで欲しい。なぜなら通信の­インフラもつぶれてるかも知れないから。

電波・通信の通信・復興状況を Google maps に反映させる­仕組み。 「ここまでは電波が届いているが、ここから先は届いていない」が­視覚的に分かるもの。 http://togetter.com/li/111197 ­の情報などを上手く地図に反映できないだろうか? 避難所の地図と連携させることで、情報孤立している避難所もわか­ってくる。

Google Wave での膨大な議論はこちらにまとめてあります。

さて、こうして提案されたアイディアから、実際に自分がやってみたいプロジェクトを提案するというのが Project list です。完成して公開済のプロジェクトは 2 個、アクティブ/作業中な物は 13 個(うち引き続きメンバー募集中の物が 3 個)、メンバー募集中の物は 3 個あります。


ハッカソンはオンラインとオフラインの両方で行われました。


Hack For Japan

Hack For Japan

[ハッカソン京都会場の様子]

●京都会場では下記のサービスの開発が行われました。なお、京都のオフライン会場とオンライン会場のメンバーが Skype チャットを使いながら共同で開発にあたるという場面も。

デマだったー」 Twitter 上のツイートがデマであれば、それをデマであると報告してもらい、その集約結果を用いてデマ情報が広まることを防ぐ
炊きだしたん」炊き出し情報検索サービス
5Goods」マイクロボランティアの手法を使って、被災地の方にWEBを通して応援のメッセージを届けるサービス
地域ツイート」各地域のハッシュタグや周辺地域のハッシュタグのつぶやきを見れるサイト
わん!クリックで救助検」1クリックで場所を特定して、その場所の周辺の有益な情報(炊き出し情報や計画停電情報など)を公開しているサイトのリンク集を表示するサービス
はてな震災情報」はてなブックマークに集まっている有益な震災情報を、ユーザーが参加して編集し、まとめられるサービス
ペットファインダー」Google Person Finder のペット版

福岡会場では、支援者が楽しんで支援できるようにするために,義援金や献血の血液の寄付状況をグラフ化したり、マップ表示したり、ゲーム感覚で可視化するサービスを提供する「どねったー」、どねったーから寄付や献血等のドネーションに関する情報を得て、それらの情報を元にキャラクタを育てる育成ゲーム「どねーと牧場(仮)」、そして hack4jp でこれから作られるアプリケーションで必要とされる機能を整理し,これらの多様な技術を利用できるように仲介するミドルウェア「とりあえずAPI」の開発が行われていました。

岡山会場では、被災地の方が現地の写真を撮影して、その写真と位置情報をGoogle Mapで表示する「被災地マップ(仮)」とUstream にアップされているチャリティーライブや、報道番組のポータルサイト「Act4LIVES- action for world lives -」の開発が行われました。

徳島会場では、Chromeアドオンで、Twitterサイト上で流れてきたRTに対して、外部サイトのタグ(はてなブックマークのタグ)や関連エントリー(そのツイートが含まれるTogetterや、今回他の方が作られる関連サービスへのURL)などのメタ情報を、外部サイトを見るまでもなく、その場で情報を付与することで間違った噂の拡散を防ぎ、正しい情報の拡散を進めるサービス「ReTweetPlus」が開発されたほか、どんなプロジェクトがあるか、どのような貢献ができるかを調査し、wikiにまとめるという調査プロジェクトが行われていました。

京都会場では Google の及川卓也と、さくらインターネット研究所の松本直人さんによる TechTalk、はてなの近藤淳也さんとさくらインターネットの田中邦裕さんによる講評を頂きました。(リンクからすべての動画にアクセスできます。)


Hack For Japan

Hack For Japan

Hack For Japan

Hack For Japan

Hack For Japan
[Hack For Japan 京都会場より。 HFJ の文字が読めますか?]


Hack For Japan は、開発者の皆様の力が求められている「今」、皆様が使えるツールを提供したり、自分が足りないスキルを補ってくれる仲間を捜したり、求められているサービスを知ることで開発者が活躍できる場を提供する為のプロジェクトです。ご協力頂いた皆様に感謝するとともに、Hack For Japan の真価はこれらの場やツールを開発者の皆様がどれだけ利用して、よいサービスを作ってくださるかにかかっています。引き続きどうぞよろしくお願いします。

なお、オフライン会場の手配は全て各地の GTUG (Google Technology User Group)の皆様が行ってくださいました。また、開催にあたって Google API Expert の皆様からたくさんのアドバイスを頂きました。改めて御礼申し上げます。


(写真は全てクリエイティブコモンズ表示非営利改変禁止ライセンスで山崎富美が公開した物です)



3/19-3/21 に、被災者支援のためのサービスを開発するためのオンラインイベント “Hack For Japan” を開催することになりましたのでお知らせ致します ...


3/19-3/21 に、被災者支援のためのサービスを開発するためのオンラインイベント “Hack For Japan” を開催することになりましたのでお知らせ致します。

●背景と目的

東日本大震災後、たくさんの企業や個人によって救助や情報収集のためになるアプリケーションやサイト、サービスが作られてきました。Google 災害情報ページ(Crisis Response page)sinsai.infoYahoo! JAPAN - 地震・津波災害に関する情報などです。また、そうしたサービスの開発には携わってはいないものの、何か役に立ちたい ---- そんな developer の皆さんの声もいただいてきました。そこで、developer が結集して、developer 以外の方からもアイディアや要望をいただきつつ、様々な取り組みについて情報交換しながら、より役に立つ災害情報サイト/サービスを提供するための場を提供したいと思います。

すでに多くの個人の方や企業・団体が様々なサービスを提供していますが、その中には重複した作業や、お互いに協力できるものも数多くあります。私たちはこのイベントで情報共有の「場」を用意することで、重複の回避や開発の効率化、さらには 1 人では考えつきもしなかったものの開発が実現できるのではないかと考えています。

“Hack For Japan” では、一日の hackathon で終わることなく、継続的に良い ものを作るべくハックし続けていきたいと考えています。ですが、まずはスターティングポイントが必要かと思い、ideathon/hackathon という形を取らせていただければと思います。

●会場はオンラインがメイン

現在の状況では、東京や東北で通常の hackathon のように物理的に集まるのは難しいため、原則オンラインでの開催を考えています。なお、いくつかの会場ではオフラインイベントを検討しています。現在、京都会場(京都リサーチパーク)、岡山(りぶらホール)、福岡(AIP cafe)、徳島(月見ヶ丘海浜公園)での開催が決まっています。いずれも先着で無料でご参加いただけます。

●使える技術

サービスをホスティングするためのクラウドサービスから、ウェブサービス、各種オープン API、Android や iPhone、Windows や Mac などのクライアントまで、オープンで誰でも使えるものであれば使う予定です。Google Japan, 楽天, Yahoo! JAPAN, Microsoft Japan, Twitter, Amazon Web Services, Salesforce Japan, OpenStreetMap、株式会社はてな、株式会社ミクシィ、Evernote Corporation からの賛同を得て開催するため、彼らのテクノロジーを使った場合にエンジニアのサポートが得られる可能性があります。「使えるテクノロジーリスト」はこちらです。

●使えるデータ

データやコンテンツをもっている企業・組織の方々からの、データの提供をお願いいたします。また、ディベロッパーの皆さんから「こういうデータが使えればこんなことが実現できるのに…」というアイディアがあった場合はその要望を公表し、実現できるかコンタクトを行う可能性があります。

●ご登録

こちらのフォームから賛同表明をお願いします。京都会場、岡山会場、福岡会場、徳島会場は物理的に場所が限られていますので、先着順とさせていただきます。

●3 月 19 日-20 日の ideathon について

エンジニアもエンジニアではない方も参加できます。
Google Wave はディスカッションの場です。「何があれば人々の助けになるか」「何が必要か/欲しいか」などの要望や、「もうこんなものを作ったよ」という開発報告などのコミュニケーションにお使いください。プロジェクトが細かく立ち上がるにつれて、それぞれ別の Wave を立ち上げるか、Wave 以外のソリューションを使うかはプロジェクト内で適宜決めてただければと思います。
Google Moderator は「こんな機能を作ったらよいのでは?」という具体的なアイディア出しや要望と、「そのアイディアいいね!」と投票するときにお使いください。

●開発プロジェクトと成果物のリスティング

プロジェクトの進め方やアップ先(Code.google.com や SourceForge 等)はプロジェクト毎に決めていただきますが、どのようなプロジェクトが進行中で、成果物はどこから入手できるのか、どこにアクセスすれば使えるのか、などの情報は “Hack for Japan” のサイトに掲載する予定です。
現在までに以下のことが決定しています。詳細が決定次第、続報を載せていきます。


【開催概要】

■日時: 3 月 19-20 日(ideathon)、3 月 21 日(hackathon)
■場所:
  • オンライン(Google Wave + Google Moderator)
  • 京都会場 (定員 100 名) 京都リサーチパーク 4 号館 2F ルーム 2 (アクセス
  • 福岡会場 (定員  20 名)  AiP カフェ (アクセス
  • 岡山会場 (定員  30 名)  岡山りぶらホールB(アクセス
  • 徳島会場 (定員未定)  月見ヶ丘海浜公園 研修室(アクセス
■Twitter のハッシュタグ: #hack4jp

■アイディアソン会場:(Hackathonの最中にももちろん使えます。)
■公式サイト:  ”Hack For Japan” 
■その他: 利用できる技術の一覧


●賛同人

 3 月 19 日 15:00 現在の賛同人は以下のとおりです。

Google Japan 及川卓也 @takoratta
Google Japan 山崎富美 @fumi
Google Japan 三廻部大 @dmikurube
Google Japan 夷藤勇人 @hayatoito
Google Japan 松尾貴史 @tmatsuo
Google Inc. Vic Fryzel @vicfryzel
楽天株式会社 吉岡弘隆 @hyoshiok
アマゾン データ サービス ジャパン株式会社 玉川憲 @KenTamagawa
アマゾン データ サービス ジャパン株式会社 大谷晋平 @shot6
日本マイクロソフト 西脇 資哲 @waki
日本マイクロソフト 砂金信一郎 @shin135
日本マイクロソフト 長沢智治 @tomohn
日本マイクロソフト 佐藤直生 @satonaoki
株式会社セールスフォース・ドットコム 及川喜之 @yoikawa
OpenStreetMap Foundation Japan 三浦 広志 @miurahr
Sinsai.info 関 治之 @hal_sk
SOBA Project 山下大介 @dddaisuke
フリーランス 渡辺慎二郎 @shikajiro
株式会社はてな 近藤淳也 @jkondo
株式会社はてな 田中慎司@stanaka
株式会社リクルート 川崎有亮@kawanet
ヤフー株式会社 冨樫 俊和 @togachi
翔泳社 岩切晃子 @kohsei
株式会社ミクシィ 田中 洋一郎 @yoichiro
Evernote Corporation 外村仁 @hokayan
中国GTUG 横山 隆司 @ttyokoyama



[先日「Google Person Finder API のドキュメンテーションの翻訳について」というブログ記事を公開しましたが、引き続きデータモデルの各フィールドの説明を中心に、ソフトウェアエンジニアの花岡 俊行が翻訳をしてくれました。なお、正式版の翻訳については code site に掲載されるのをお待ちください-山崎]


[先日「Google Person Finder API のドキュメンテーションの翻訳について」というブログ記事を公開しましたが、引き続きデータモデルの各フィールドの説明を中心に、ソフトウェアエンジニアの花岡 俊行が翻訳をしてくれました。なお、正式版の翻訳については code site に掲載されるのをお待ちください-山崎]

Data Model

2 つのタイプの record があります。PERSON record は静的な情報、NOTE record は動的な情報のための record です。NOTE は特定の PERSON に属し、PERSON はいくつでも NOTE を持つことができます。一度 record が作られたら、それは変化しません。ある PERSON に関してのデータが変化したことを示すには、時刻情報を付加した NOTE をその PERSON に関連付けて加えてください。

PERSON record は、行方不明者を探している人、行方不明者について情報を持っている人のどちらからも作られる可能性があります。ある人に対する PERSON record はすべての関係情報の集合点を表します。そして、その人に対する NOTE record は共有する情報を蓄積していくものです。

PERSON records

ある人に対する PERSON record は複数あるかもしれません。複数の source からデータをインポートするアプリケーションではある人に対する PERSON record が複数あるということが起こり得ます。それらの record を関連付けるかどうかはアプリケーションに任せられます。アプリケーションがすべての record のコピーを持ち、どの record が同じ人を指すかをそれとは別に追跡するという方法が推奨されます。

■メタ情報

人々が探しているデータの信頼性を調べられるようにするためのメタ情報です。

person_record_id (string):
あるレコードに対するユニーク ID であり、ドメイン名と、それにスラッシュとローカル ID が続く。ドメイン名はこのレコードに対して権限を持つホームレポジトリを示す。ローカル ID のフォーマットはホームレポジトリに任せられる。person_record_id が、そのアプリケーション自身と異なるドメインから始まっている場合、その record は他の source から得られたクローンであることを意味する。

entry_date (string in the form "yyyy-mm-ddThh:mm:ssZ"):
この record のコピーが保存された UTC 時刻。PFIF レポジトリは、record が追加時のこの値が単調増加することを保証しなければならない。それにより、クライアントは最後に受け取った entry_date 以降の entry_date をもつ record を要求することによってレポジトリのコピーを更新することができる。
author_name (string):
情報提供者のフルネーム。
author_email (string):
情報提供者のメールアドレス。
author_phone (string):
情報提供者の電話番号。
source_name (string):
この record のホームレポジトリの名前(情報元のサイト名)。
source_date (string in the form "yyyy-mm-ddThh:mm:ssZ"):
この record がホームレポジトリ内で作成された UTC 時刻 (情報元の投稿日)。
source_url (string):
この record のホームレポジトリにおける URL(情報元の URL )。

■識別情報

これらのフィールドは人の識別情報用の変化しないデータです。これらは検索に使われます。

first_name (string):
探している人、見つかった人のファーストネーム。スペースに続けてミドルネームも追加できる。
last_name (string):
探している人、見つかった人のラストネーム。
home_city (string, city name):
探している人、見つかった人の市。
home_state (string):
探している人、見つかった人の都道府県。
国の行政区域を大文字 ISO 3166-2 形式で表現します。
訳注: http://ja.wikipedia.org/wiki/ISO_3166-2:JP を参照
home_neighborhood (string):
探している人、見つかった人の近隣の場所。
home_street (string):
探している人、見つかった人の町名。
home_postal_code (integer):
探している人、見つかった人の郵便番号。
photo_url (string):
探している人、見つかった人を識別する写真への URL。
other (large string):
自由形式のテキストデータで、他の source から持ち込まれた静的なデータに使われます(他の source からインポートされた動的なデータは NOTE record に保存されるべきです)。短いフィールドは一行で、フィールド名、コロン、値で表現されます。長いフィールドは、フィールド名とコロンの行に続いてインデントされた文字列で表現されます。機械的な処理で他の形式から PFIF 形式に record が変換された場合は、"automated-pfif-author"フィールドが存在すべきです。このフィールドは PFIF を作成したプログラム名を表します。PFIF レポジトリから record がエクスポートされた場合には"automated-piff-author"フィールドは付加されません。人に対する自由形式テキストの説明も"description"のフィールド名でここに表されます。たとえば、自由形式文字列フィールドを持つ PFIF 以外のフォーマットから record を取得するプログラムは other フィールドを含み、それは次のようになるでしょう:

description:
    Dark hair, in her late thirties.
    Also goes by the names "Kate" or "Katie".
automated-pfif-author: ScrapeMatic 0.5

他のアプリケーションからインポートされたフィールドに対する名前はドメイン名とスラッシュを始めに付加されるべきです。例えば、ICRC record から生年月日がインポートされた場合は次のようになります:
(訳注:この例は PFIF 1.1 当時のもの。実際には PFIF 1.2には生年月日専用のフィールドが用意されています)

icrc.org/birthdate: 1976-02-26
sex (string):
探している人、見つかった人の身体的性別。femalemaleother の 3 つのうち 1 つで指定されます。性別不明の場合はこのフィールドを省略してください。
date_of_birth (string):
探している人、見つかった人の正確な生年月日(YYYY-MM-DD)またはだいたいの生年月日(YYYY, YYYY-MM)。
age (string):
探している人、見つかった人のだいたいの年齢。source_date 時点での、生年月日からの年数。このフィールドの値はひとつの 10 進数整数か、2 つの 10 進整数をハイフンでわけた包含範囲を取る。source_date が指定されていない場合、このフィールドは定義されません。(訳注: 27 歳→ "27", 25 から 30 歳→"25-30")
home_country (string):
探している人、見つかった人の母国。大文字 2 文字の ISO 3166-1 country code で指定されます。

NOTE records

NOTE record はちょうどひとつの PERSON record に属します。ある PERSON record には任意の数の NOTE record が関連付けられます。すべての note はタイムスタンプと note の著者情報を持ちます。アプリケーションはタイムスタンプを、フィールドの最新情報を決定するのに使えます。ユーザーは著者情報をフィールドの信頼性を確かめるために使うことができます。

これらのフィールドは時間とともに変化する情報を保存します。これらのフィールドが NOTE record に現れたときは、この record はこれらのフィールドに対する新しい値を定めます。source_date フィールドは新しい値が効力を持つ日付を示します。例えば、最新の場所情報を表示したいアプリケーションは、last_known_location フィールドを持っていてるもののうち最新の source_data を持つ NOTE を参照すればいいことになります。

note_record_id (string):
この record のユニーク ID であり、ドメイン名にスラッシュ、ローカル ID が続きます。ドメイン名はこの record の権限を持つホームレポジトリの識別子です。ローカル ID のフォーマットはホームレポジトリに任されています。note_record_id がアプリケーションのドメインと異なったドメインから始まっている場合、この record は他の source からのクローンであることを意味します。
entry_date (string in the form "yyyy-mm-ddThh:mm:ssZ"):
この record のコピーが保存された UTC 時刻。PFIF レポジトリは、record が追加時のこの値が単調増加することを保証しなければなりません。それにより、クライアントは最後に受け取った entry_date 以降のentry_date をもつ record を要求することによってレポジトリのコピーを更新することができます。
author_name (string):
情報提供者のフルネーム。
author_email (string):
情報提供者の e-mail address。
author_phone (string):
情報提供者の電話番号。
source_date (string in the form "yyyy-mm-ddThh:mm:ssZ"):
この record がホームレポジトリ内で作成された時刻(情報元の投稿日)。ほとんどのケースで、note はこのフィールドでソートして表示されるべきでしょう。
found (boolean string, "true" or "false"):
行方不明者に連絡が取れた場合、会えた場合は"true", さもなくば"false"の値をとります。この note の text フィールドで、いつどこで連絡が取れたか、会えたかを説明するべきです。
email_of_found_person (string):
見つかった人の連絡先 e-mail です。このフィールドは人物が見つかった場合のみ存在します。この note の text フィールドでどのように連絡先情報が決定されたか説明するべきです。
phone_of_found_person (string):
見つかった人の連絡先電話番号です。このフィールドは人物が見つかった場合のみ存在します。この note の text フィールドでどのように連絡先情報が決定されたか説明するべきです。
last_known_location (string):
捜索されている人を最後に見かけた場所を述べた自由形式説明であり、市や都道府県など、できるだけ詳細に述べた情報です。この note の text フィールドはどのように所在地が決定されたか述べるべきです。
text (large string):
自由形式の文字列であり、人物の状態や状況、最後に目撃された所在地の詳細の説明です。他の情報の訂正であることもあるでしょう。
status (string):
探している人、見つかった人の状態で次の 5 つの文字列のうちの 1 つを取ります。
information_sought
情報提供者は対象の person の情報を探しています。
is_note_author
情報提供者は対象の person 自身です。
believed_alive
情報提供者は対象の person が生きているという情報を入手しました。
believed_missing
情報提供者には対象の person が行方不明と判断した理由があります。
believed_dead
情報提供者は対象の person が亡くなっているという情報を入手しました。

person_record_id (string):
この NOTE record が関連づいている PERSON record の person_record_id です。
linked_person_record_id (string):
この NOTE record が、同一人物に対する重複 record であると主張している他の PERSON record のperson_record_id です。
ユーザーがある 2 つの PERSON record を重複だと示すときには、NOTE record をそれら両方の PERSON record に付加し、それぞれに linked_person_record_id フィールドを持たせ、相互に指し示します。これらの NOTE record はこれらを重複だと示した関係者を示す author_name フィールドを持ち、text フィールドに重複だと判断するにいたった理由を付加します。

Notes

String fields は non-ASCII character を含められます。

PFIF 1.2 では person 要素の外にトップレベルの note 要素を許します。正しい PFIF ドキュメントはひとつの pfif 要素からなり、それはひとつ以上の person か note 要素を持ちます。

note 要素が person 要素の外に現れる場合、note は person_record_id をもつ必要があります。それ以外の場合には person_record_id フィールドは任意ですが、存在する場合には note を含んでいる person の person_record_id と一致する必要があります。

person 要素の中では、 必須の person_record_id がはじめにくる必要があり、note 要素は最後に来る必要があります。note 要素の中では、note_record_id が最初に来る必要があり、もし存在するときには person_record_id がそれに続くべきです。残りのフィールドは任意の順番であらわれることができます。



[先日「東北地方太平洋沖地震を受けて」というブログ記事でご紹介した Google Person Finder ですが、API のドキュメンテーションを翻訳して欲しいとのご要望を頂いたのを受けて、ソフトウェアエンジニアの花岡 俊行が翻訳をしてくれました。なお、正式版の翻訳については code site に掲載されるのをお待ちください-山崎]


[先日「東北地方太平洋沖地震を受けて」というブログ記事でご紹介した Google Person Finder ですが、API のドキュメンテーションを翻訳して欲しいとのご要望を頂いたのを受けて、ソフトウェアエンジニアの花岡 俊行が翻訳をしてくれました。なお、正式版の翻訳については code site に掲載されるのをお待ちください-山崎]

Google Person Finder Data API documentation

How to download or upload data using the Person Finder API.
Person Finder API を使ったデータのダウンロード・アップロード方法

The Person Finder application stores and exports records using the People Finder Interchange Format (PFIF), which is based on XML. Documentation on the format is available here:
Person Finder アプリケーションはレコードを People Finder Interchange Format (PFIF) で保存、エクスポートします。PFIF は XML ベースのフォーマットです。PFIF に関するドキュメントは以下より参照できます。

PFIF 1.2 specification
PFIF 1.2 example document
PFIF FAQ and implementation guidelines


●Downloading data from Person Finder
Person Finder からデータをダウンロードする方法

To download data from Person Finder, you need an authorization token. You can request one by filling out this form
Person Finder からデータをダウンロードするには、authorization token が必要です。authorization token はこちらのフォームから申し込むことができます。

PFIF 1.2 person and note feeds are available here:
PFIF 1.2 person feed と note feed はここからアクセスできます。


https://subdomain.person-finder.appspot.com/feeds/person?key=auth_token
https://subdomain.person-finder.appspot.com/feeds/note?key=auth_token


By default, these feeds return the most recently added person records or note records in reverse chronological order. These query parameters are supported:
デフォルトでは、これらの feed は最も最近に追加された person レコードや note レコードを日付順に新しいものから返します。以下の query パラメータがサポートされています。

  • max_results: Return up to the specified number of results (maximum 200).
  • max_results: 指定された数を上限として結果を返します。(指定できる上限は 200)
  • skip: Skip the specified number of records before returning the next max_results results.
  • skip: 次の|max_results|個の結果を返す前に、指定された数の結果をスキップします。
  • min_entry_date: Return only results with an entry_date greater than or equal to the specified timestamp, which should be in UTC in yyyy-mm-ddThh:mm:ssZ format. If this parameter is specified, results will be returned in forward chronological order.
  • min_entry_date:指定された日付以降のタイムスタンプの entry_gate を持つ結果のみを返します。 タイムスタンプは UTC で yyyy-mm-ddThh:mm:ssZ のフォーマットで指定します。このパラメータが指定された場合、結果は日付順に古いものから返します。
  • person_record_id: Return only notes for this person record. This parameter is only valid for the note feed.
  • person_record_id: note feed のみで有効なパラメータです。指定された person record に対する notes のみ返します。

You can use the person_record_id parameter to subscribe to a feed of notes on a specific person.
person_record_id パラメータは 特定の人に対する note feed を subscribe するのに使えます。

If you need to keep another database synchronized with the Google Person Finder database, you can use the min_entry_date and skipparameters to download incremental updates. Use the latest entry_date you have previously received from Google Person Finder as themin_entry_date for your first request. Then take the latest entry_date in the batch you receive, and use it as the min_entry_date for your next request. Use the skip parameter to skip the records you already received that have the same entry_date. This algorithm is implemented bytools/download_feed.py.
Google Person Finder データベースと同期した他のデータベースが必要な場合、min_entry_date と skip パラメータを使って更新の増加分をダウンロードすることができます。最後に Google Person Finder から受け取った entry_date を、最初のリクエストの min_entry_date として用いてください。そしてそのリクエストの結果得られた中で最新の entry_date を、さらに次のリクエストの min_entry_date に用います。skip パラメータは既に得られた、同じ entry_date を持つ record をスキップするのに使うことができます。このアルゴリズムは tools/download_feed.py で実装されています。

If you know the PFIF person_record_id of a specific person, you can fetch a single PFIF person record with notes at the following URL:
特定の人の PFIF person_record_id がわかっている場合、notes 付きの単一の PFIF person record を次の URL から得ることができます。


https://subdomain.person-finder.appspot.com/api/read?key=auth_token&id=person_record_id

●Using the Person Finder Search API
Person Finder Search API を使う方法

To use the Person Finder Search API, you need an authorization token. You can request one by filling out this form
Person Finder Search API を使うには、authorization token が必要です。authorization token はこのフォームより申し込むことができます。

You can access the search API here:
search API はここからアクセスできます:


https://person-finder.appspot.com/api/search?key=auth_token&subdomain=subdomain&q=your query 

It will return the matching results as a XML file with PFIF format.
これにより、合致した結果を PFIF フォーマットの XML ファイルで返します。

●Uploading data into Person Finder
Person Finder にデータをアップロードする方法


You can also push one or more PFIF records to the Person Finder by posting an XML file to the following URL:
ひとつまたは複数の PFIF record を Person Finder にアップロードすることができます。アップロードは次の URL に XML ファイルを post することによって行えます。

https://subdomain.person-finder.appspot.com/api/write?key=auth_token


Both PFIF 1.1 and 1.2 are accepted. To obtain an auth_token, please contact pf-authkey@google.com. You will need to tell them which PFIF source domain you will be using the token for, and the token can only be used to upload person records whose person_record_id is prefixed with that domain.
PFIF 1.1, 1.2 の両方が受理されます。auth_token を得るには、pf-authkey@google.com に連絡してください。どの PFIF source domain に対して authorization token を使うかを明記する必要があります。authorization token は、その domain を prefix にもつ person_record_id の person record のアップロードのみに使うことができます。

Once you have prepared an XML file, you can use the following command to upload it:
XML ファイルが用意できたら、次のコマンドでアップロードすることができます。

curl -X POST -H 'Content-type: application/xml' --data-binary @your_file.xml \     https://subdomain.person-finder.appspot.com/api/write?key=auth_token


The XML document can contain elements with nested elements. To understand the proper XML format, see the PFIF example document. We recommend that you upload a single record or a small number of records as a test, retrieve the records using the Individual Person Record API (/api/read), and view the records on the site to verify that the results are what you expected. Pay careful attention to the handling of accented letters, note text, source URLs, and photo URLs (if you have them).
XML ドキュメントは、ネストされた 要素を持つことができます。厳密な XML フォーマットについての詳細は、PFIF example document を参照してください。まずテストとして、単一か少数の record をアップロードし、その結果を individual Person Record API (/api/read) を使って record を検索し、結果が予想通りになっているかどうかを確かめてみることをお勧めします。アクセント付き文字、note 文字列、source URL、photo URL を使っている場合は、特に注意を払ってください。 

Due to the size limitation on POST requests, you should split up files into batches of 100 elements. If you encounter an error, or need to correct problems in a previous upload, it is safe to upload the same records again. Records will replace existing records with the sameperson_record_id or note_record_id.
POST リクエストのサイズ制限により、ファイルを 100 要素ごとに分割する必要があります。エラーが発生した場合、または以前のアップロードを訂正する必要がある場合、同じ record をもう一度送っても問題ありません。同一の person_record_id か note_record_id を持つ record は上書きされます。

The response will be an XML document like this:
response は次のような XML document になるでしょう:




<?xml version="1.0"?>
<status:status>
  <status:write>
    <status:record_type>pfif:person</status:record_type>
    <status:parsed>1</status:parsed>
    <status:written>1</status:written>
    <status:skipped>
    </status:skipped>
  </status:write>

  <status:write>
    <status:record_type>pfif:note</status:record_type>
    <status:parsed>1</status:parsed>
    <status:written>1</status:written>
    <status:skipped>
    </status:skipped>
  </status:write>
</status:status>



Each <status:write> element describes one batch of writes. <status:record_type> is the type of the batch. <status:parsed> says how many XML records were successfully parsed. <status:written> says how many were written to the datastore. In the above example, 1 person and 1 note were successfully written. When there are problems it will look like this:
それぞれの <status:write> 要素はひとつの書き込みバッチ操作を表しています。<status:record_type> はバッチ操作の種類です。<status:parsed> はいくつの XML record が正しくパースできたかを記述しています。<status:written> はいくつの record がデータストアに書き込まれたか記述しています。上の例では 1 つの person と 1 つの note が正しく書き込まれました。問題が起こったときは次のようになるでしょう。


<?xml version="1.0"?>
<status:status>
  <status:write>
    <status:record_type>pfif:person</status:record_type>
    <status:parsed>1</status:parsed>
    <status:written>0</status:written>
    <status:skipped>
      <pfif:person_record_id>google.com/person.4040</pfif:person_record_id>
      <status:error>not in authorized domain: u'google.com/person.4040'</status:error>
    </status:skipped>
  </status:write>

  <status:write>
    <status:record_type>pfif:note</status:record_type>
    <status:parsed>1</status:parsed>
    <status:written>0</status:written>
    <status:skipped>
      <pfif:note_record_id>zesty.ca/note.53</pfif:note_record_id>
      <status:error>ValueError: bad datetime: u'xyz'</status:error>
    </status:skipped>
  </status:write>
</status:status>

Each entry describes the reason why a particular record was skipped, and includes the record ID if one was given.
それぞれのエントリはあるレコードがなぜスキップされたか記述しており、record ID が指定されていればそれを含みます。 


When you upload person or note records, you will be replacing any existing records with the same record ID. It should be safe to upload the same data multiple times while you fix formatting problems.
person record や note record をアップロードした場合、同一の record ID をもつ record はすべて上書きされます。フォーマット問題を修正するために同一のデータを複数回アップロードすることは安全に行えます。



東日本大震災(東北地方太平洋沖地震)により被害を受けられた皆様に心よりお見舞い申し上げます。皆様のお役に立てるよう、Google ではいくつかの取り組みを行っています。

Google Crisis Response 東日本大震災(東北地方太平洋沖地震)特設サイトを開設しました。

こちらのサイトでは、災害に関する情報や、被害状況をリアルタイムで更新しています ...


東日本大震災(東北地方太平洋沖地震)により被害を受けられた皆様に心よりお見舞い申し上げます。皆様のお役に立てるよう、Google ではいくつかの取り組みを行っています。

Google Crisis Response 東日本大震災(東北地方太平洋沖地震)特設サイトを開設しました。

こちらのサイトでは、災害に関する情報や、被害状況をリアルタイムで更新しています。


Google Person Finder の提供を開始しました。

被災されたご家族やご友人の安否を調べられるシンプルなツールです。
ショートリンクは http://goo.gl/sagas です。

Google Person Finder をサイトに組み込める embed コードを提供しています。

以下の HTML コードをコピーして貼り付けてください。


<iframe
    src="http://japan.person-finder.appspot.com/?small=yes&lang=ja"
    width=400 height=300 frameborder=0
    style="border: dashed 2px #77c"></iframe>
  


●上記特設サイト及び Person Finder は携帯電話からも使えます

携帯電話からのアクセス方法は、Google モバイル検索のトップページからのリンク、もしくはサイトURL (http://goo.gl/REFVG)よりアクセスできます。





YouTube の TBS News-i チャンネルでは、地震関連ニュースをライブストリーミングしています(PCのみ)。

●災害前の情報を元に、青森県、岩手県、宮城県、福島県の避難所情報をGoogle マップ上にまとめました。特設サイトからもリンクしています。




鉄道の遅延情報を Fusion Tables を使ってまとめました。

Japan Earthquake Photos を開設しました。

皆さんからの被災写真を共有していただくことができます。

被害の大きい地域にお住まいの方、被災された方のご無事を心よりお祈りいたします。

3/12 追記

●パートナーの GeoEye の協力で、衛星写真で震災地の写真を見ることができるようになりました。高品質画像を見るには、KML ファイルをダウンロードして、Google Earth でご覧ください。また、Google MapsPicasa album で見ることもできます。




[地震と津波の前後の写真]

「地震」というキーワードでの検索結果には、地震速報や緊急用ダイヤルの使い方などの関連情報を掲載しています。





Google では、ユーザーの皆さんに対して更に透明性を高めるため、他の方法も検討しています。Google が提供する製品の中には、そのサービスが何の為に作られたのかによって、これらの 3 つのモードのうち 1 つか 2 つのモードのみに適している物もあります。ただし、 Google はこれら 3 つのモードすべてが Google のサービスにある、と考えています。

一例ですが、先日リニューアルされた  Google Profiles は、自分の名前で検索されたときに何が表示されるか、自分にとってどんな情報が重要でハイライトしたいのか、自分について何を知ってもらいたいのかを自分がコントロールすることができるサービスです。この Google Profiles はウェブ上に情報を公開し、現実の人とつながるために設計されたサービスですので、実世界でよく使っている名前を使って頂くようお願いしています ...

[本記事は、Google Public Policy Blog にGoogle の Director of Privacy, Product and Engineering である Alma Whitten が投稿した The freedom to be who you want to be...Google Social Web Blog  に Product Manager の Greg Marra が投稿した Decide what the world sees when it searches for you翻訳・再構成したものです-山崎]

「インターネット上では、誰もあなたが犬だとは思わないだろう」というピーター スタイナーの風刺画は冗談で描かれたものかもしれません。しかし、中東や北アフリカ地域での最近の出来事が示すように、彼の指摘したことはとても重大なことでした。ウェブが発展し、ユーザーはどこにいてもブログ記事を投稿したり、友人や家族と写真を共有したり、目にした出来事をオンラインで放送したりすることができるようになりました。そんな中、アイデンティティの問題がますます重要になってきたのです。

Google のサービスを利用するとき、ユーザーの皆さんがどのように名乗るか(あるいは名乗らないか)、その色々な方法について Google は考えてきました。本人証明が役に立つサービスもあれば、本人証明が必要とされる場合もありますし、逆に本人証明が任意でもよかったり、不要だったりもします。属性(attribution)はとても重要です。しかし、仮名や匿名という手段も文化の一部を担っており、それにはきちんとした理由があるのです。

Google のサービスでは無記名、仮名、記名の 3 つに対応しています。各々のモードには、各々のユーザーベネフィットがあります。

無記名: 自分の実名や仮名に結びつけることなく、オンラインの活動をしたい時がときどきあるでしょう。たとえば、医療関係について調べるときや、特別な方への素敵なプレゼントを探すときなどです。このようなときは、Google Account にログインしなくても(あるいはサインアップすらしたことがなくても)、Google のサービスを利用することができます。サービスを提供する上で、IP アドレスやクッキーのような情報は必要になりますが、ログアウトしている場合はそれらの情報を個人のアカウントにリンクすることはありません。

仮名(ハンドルネーム)仮名のおかげで人々はネット上で自由に自己表現を行うことができるようになったことからもわかる通り、仮名はインターネットの大きな利点の 1 つです。仮名を使う人は、物理的に危険な状態にあるのかもしれませんし、何かの助けを求めているのかもしれません。また、自分について知られたくない状況にある場合もあるでしょう。そんな事情がある場合、一貫したアイデンティティをもつことは必要かもしれませんが、オフラインの本人とは結びつかないものである必要があるでしょう。YouTube への動画のアップロードや、Blogger への投稿は仮名を使うことができます。

記名人と情報を共有するときに、相手に自分が何者なのかを知ってもらいたいということはよくあると思います。 Google Checkout などのいくつかの製品が、このような身元確認に依存しており、サービスを利用するためには、利用者自身が身元を明らかにすることが必要です。 身元を明らかにすることが、しないことに比べてより望ましい場合もあるでしょう。たとえば、あなたが地域社会活動のプロジェクトに参加したいと思ったとき「オンラインで見たこの人達が、本当にコミュニティのメンバーであるとどうやって知ればよいのだろう?」と考えることがあるかもしれません。

なりたい自分になれる(オンラインアイデンティティをコントロールできる)という自由をユーザーに提供するのと同じぐらい重要なのは、Google のサービスを利用する時に自分がどのモードにいるのかを正確に知ることができるようにすることです。そこで最近、Google では多くのサービスで、これを明確に示すために、ページの一番上にあるナビゲーションバーを変更しました。各サービスを使うときに、ページの右上に、どのアカウントでログインしているか(もしくはしていないか)を見ることができます。


Google では、ユーザーの皆さんに対して更に透明性を高めるため、他の方法も検討しています。Google が提供する製品の中には、そのサービスが何の為に作られたのかによって、これらの 3 つのモードのうち 1 つか 2 つのモードのみに適している物もあります。ただし、 Google はこれら 3 つのモードすべてが Google のサービスにある、と考えています。

一例ですが、先日リニューアルされた Google Profiles は、自分の名前で検索されたときに何が表示されるか、自分にとってどんな情報が重要でハイライトしたいのか、自分について何を知ってもらいたいのかを自分がコントロールすることができるサービスです。この Google Profiles はウェブ上に情報を公開し、現実の人とつながるために設計されたサービスですので、実世界でよく使っている名前を使って頂くようお願いしています。



[この記事はソフトウェアエンジニアの Tim Steele が Google Chrome Blog に投稿した Speedier, simpler and safer: Chrome’s basics get even better という記事を元にデベロッパーアドボケイトの北村英志が翻訳・作成しています。 -山崎]

本日、ブラウザGoogle Chrome の最新安定版をリリースしました。先日リリースしたベータ版よりさらにスピードと安定性に優れ、複雑なウェブアプリも快適にお使いいただけます。(具体的には、JavaScript のパフォーマンスがV8 Benchmark Suite で66% ほど向上しています ...


[この記事はソフトウェアエンジニアの Tim Steele が Google Chrome Blog に投稿した Speedier, simpler and safer: Chrome’s basics get even better という記事を元にデベロッパーアドボケイトの北村英志が翻訳・作成しています。 -山崎]

本日、ブラウザGoogle Chrome の最新安定版をリリースしました。先日リリースしたベータ版よりさらにスピードと安定性に優れ、複雑なウェブアプリも快適にお使いいただけます。(具体的には、JavaScript のパフォーマンスがV8 Benchmark Suite で66% ほど向上しています)

Chrome の最大の特徴のひとつはスピードですが、シンプルなユーザインターフェースもまた、操作のスピードを上げ、より快適なブラウジングを実現します。新バージョンでは、ブックマークのインポートデフォルトのトップページ設定など、これまで独立したダイアログボックスから行っていた作業がタブの上で行えるようになりました。アドレスバーに表示されているURL からいつでも個別の設定画面に直接アクセスできるので、遠く離れた家族や友人に電話でChrome の設定方法を説明するときも、これからはURL をコピーして送るだけでOK です。

また、新しく追加されたパスワード同期機能により、複数のコンピュータを使い分けている場合でもお気に入りのサイトにすぐにログインできるようになりました。秘密のフレーズで暗号化して、パスワードのセキュリティを強化することもできます。同期を開始するには、Chrome の設定にある個人設定セクションを開いてください。パスワードだけでなく、ブックマークや拡張機能、設定、テーマなども、これまで通り同期することができます。

さらに、Chrome のサンドボックステクノロジーがさらに進化し、Chrome に組み込まれているFlash Player にも対応しました。これにより悪意のあるウェブページからコンピュータが守られ、皆さんに安心してブラウジングをお楽しみいただけます。詳しくはこちらのビデオをご覧ください。(英語のみ)



Chrome の特徴である「スピード」、「シンプル」、そして高い「セキュリティ」により、皆さんの日々のウェブ体験がより快適で楽しいものになることを願っています。まだ Chrome をお使いでない方は、ぜひこの機会にダウンロードして、新しい便利な機能をお楽しみください。すでにお使いの方については自動的に更新が行われますので、今しばらくお待ちください!



[本記事は、The Official Google Blog にて、Google Public Data Team の Omar Benjelloun が投稿した Visualize your own data in the Google Public Data Explorer を翻訳したものです] ...


[本記事は、The Official Google Blog にて、Google Public Data Team の Omar Benjelloun が投稿した Visualize your own data in the Google Public Data Explorer を翻訳したものです]

この 2 年間、Google は公開データを簡単に見つけ、探し、理解するための方法を開発してきました。たとえば、失業率や人口統計世界開発指標(世界銀行)を検索結果の中に提供したり、Public Data Explorer ツールを公開したりしてきました。また、Google はデータ提供事業者と共に、300 以上のデータメトリクスを含む 27 のデータセットをまとめました。Public Data Explorer を使えば、労働生産性(OECD)、インターネットの速度(Ookla)、議会の男女比率(UNECE)、政府の債務レベル(IMF)、地方自治体別の人口密度(Statistics Catalonia)などたくさんのデータを視覚的に表示することができます。そしてこれらのデータは毎週どんどん追加されています。

このたび、Public Data Explorer で皆さんのデータも扱えるようにしました。これにあわせて新しいデータフォーマットである Data Publishing Language(DSPL)を開発しました。このフォーマットは誰でもデータセットをアップロードすることができるオープンなインターフェースです。DSPL は、Public Data Explorer のようなリッチでインタラクティブな視覚化をサポートするために基本的なところから設計された XML ベースのフォーマットです。DSPL 言語とアップロード用のインターフェースは Google Labs から入手できます。

データセットをアップロードするには、Public Data Explorer の左側にある「My Datasets」というリンクをクリックします。インポートが完了すると、データセットが表示され、外部のウェブサイトに組み込まれ、他人と共有され、公開されます。もし、オフィシャルプロバイダーであれば、そのデータセットを Public Data Explorer ディレクトリ上に表示するようリクエストすることができます。詳しくはこちらまでお問い合わせください。



この新しい機能によって、より多くのデータセットが Public Data Explorer の視覚化を通じて活かされ、人々が世界をもっと理解したり、より多くの情報を手に入れたり、データに基づく意思決定が可能になったりすることを願っています。新しいデータセット、視覚化の機能、DSPL の拡張など、今後も楽しみにしていてください。



==おしらせ==

東北地方太平洋沖地震の発生を受け、Google Code Jam Japan の開催を延期することになりました。 改めた開催日時は追ってアナウンスいたします。 被災された皆さまには心からお見舞い申し上げるとともに被災地の一日も早い復旧をお祈り申し上げます。


日本語による Google Code Jam Japan 2011 の開催がアナウンスされたため、Code Jam チームのエンジニアの皆さんにお話を伺いました。なお、Code Jam チームの名前は、過去の Code Jam で使っていた名前や、普段使用しているハンドルで表記させて頂きました ...


==おしらせ==

東北地方太平洋沖地震の発生を受け、Google Code Jam Japan の開催を延期することになりました。 改めた開催日時は追ってアナウンスいたします。 被災された皆さまには心からお見舞い申し上げるとともに被災地の一日も早い復旧をお祈り申し上げます。


日本語による Google Code Jam Japan 2011 の開催がアナウンスされたため、Code Jam チームのエンジニアの皆さんにお話を伺いました。なお、Code Jam チームの名前は、過去の Code Jam で使っていた名前や、普段使用しているハンドルで表記させて頂きました。


山崎: Google Code Jam Japan 2011 の開催がアナウンスされましたね。改めて Google Code Jam について教えてください。

yukoc: Google Code Jam は複雑なアルゴリズムの問題を限られた時間の中で解く能力を競う個人戦のプログラミングコンテストです。世界大会は 2003 年から行われていて、世界中から参加があります。学生、社会人問わず参加ができ、世界大会の最終ラウンドには、開催国の Google のオフィスにさまざまな国からプログラマーが集まります。

2011 年は世界大会に先駆け特別に Code Jam Japan を用意しました。

山崎: 過去にはどのような問題が出題されたのですか?

yuizumi: 様々な分野や難易度の問題が出題されています。私が選手として参加した 2008 年の大会では、「2 駅間を結ぶ鉄道路線の時刻表が与えられる。その時刻表どおりに運行するには何台の列車が必要になるか。」(Qualifcation Round)、「教室で試験をするにあたり、カンニング防止のため、ある生徒の両隣とそのひとつ前の席には別の生徒が座らないようにしたい。また、教室の席の一部は壊れていて使えない。最大で何人までその教室で試験を受けさせることができるか。」(Online Round 3)などがありました。

山崎: 参加者はどのくらいいるものなのですか?

ykonishi: 2010 年の世界大会には、世界中から 2 万人以上、日本からは 638 人が参加しました。予選ラウンドを日本からは 485 人が突破し、アイルランドのダブリンで行われた最終ラウンドには 25 人中なんと 2 人の日本代表が勝ち残りました。

Code Jam Japan は予選ラウンドと最終ラウンドともに日本時間の週末午後にオンラインで行われるので、より多くの方に参加していただけるのではと期待しています。

山崎: Code Jam Japan は Google Japan 主催、日本語での出題で、日本在住の方が対象だと伺いました。

dmikurube: はい。ルールも日本語で表記しており、大会に関する質問も日本語で受け付けます。今までの Google Code Jam では「英語を読むのが面倒くさいなあ」「難しそうだなあ」と感じていた方も、今回の Code Jam Japan は気軽に参加していただけるようになっています。

山崎: 今のうちに準備したい方のために役に立つサイトはありますか?

pascal: クイックスタートガイド過去問 (英語) は参考になると思いますのでぜひ読んでみてください。また Google との関係はありませんが、TopCoder の Single Round Match ()も問題の方向性としては似ていると思います。

山崎: Code Jam Japan 2011 の準備にあたっての裏話などあれば教えてください。

ykonishi/frank: Google Japan のエンジニアの中には Google 入社前に ACM ICPC や TopCoder、そしてもちろん Google Code Jam 世界大会などのプログラミングコンテストに参加していた者も多数おります。これらのコンテストは非常に楽しいものですが、日本の優秀なプログラマーの中にはこれらの大会が英語で行われているために参加しないという方が多いということも知っています。そこで、このたび Code Jam チームと共に日本語のコンテストを開催することにしたのです。世界大会と同様、日本大会は Google の社員が問題からルールまですべてを手がけました。社内のカフェで夕飯を囲みながら T シャツのデザインや参加規約について話したり、加点方式を決めるのに 2 時間議論したりしました。


(Code Jam Japan 2011 の準備風景)

山崎: ズバリ勝つための秘訣を教えてください。

nya: 計画的に問題を解くことですね。コンテストは 1 ラウンドあたり数時間と限られた時間で行われるので、必ずしもすべての問題に手をつけられるとは限りません。ですので、たとえばある問題の解法が思いつかないからといって、その問題にこだわって 1 時間考え込んでしまうと、他に解ける問題があったとしてもチャンスを逃してしまうかもしれません。ぜひ一度すべての問題に目を通して、自分の得意な分野の問題から解いていってください。

山崎: ありがとうございました。開催概要は以下のとおりです。皆さん、ぜひ参加してみてください!

●開催概要●


予選 3 月 19 日(土)延期予定
決勝 3 月 26 日(土)延期予定
(予選・決勝ともにオンラインで行われます)
賞品: 賞金と特製 T シャツ(T シャツの写真はこちら : 左から pascal、yukoc、nya がモデルをしています)

参加登録: http://code.google.com/codejam/japan
Twitter アカウント: @GoogleCodeJamJp



Google API Expert は Google が認定した API やツールに精通したデベロッパーの方々です。今回新たに 1 名が加わり、18 名の Google API Expert の皆さんが 8 つ の準公式コミュニティを運営し、Google が提供する API やツールを利用するデベロッパーの皆さまをサポートしています ...


Google API Expert は Google が認定した API やツールに精通したデベロッパーの方々です。今回新たに 1 名が加わり、18 名の Google API Expert の皆さんが 8 つ の準公式コミュニティを運営し、Google が提供する API やツールを利用するデベロッパーの皆さまをサポートしています。

【準公式コミュニティと API Expert の一覧】
http://sites.google.com/site/devreljp/Home/api-expert

API Expert の皆さんと Google は最新の情報を交換し、交流を深めるための API Expert ミーティングを定期的に開催しています。このミーティングでは、各コミュニティに投じられた質問や要望を Google のエンジニアとともに確認したり、今後のコミュニティ主催のイベントを考えたりと、コミュニティの充実と発展について皆で議論しています。

それでは、2 月 24 日に開催された API Expert ミーティングの内容から、いくつかハイライトをお伝えします。

【新 API Expert のお知らせ】

Google App Engine の新しい API Expert として、小川信一さんに就任して頂くことになりました。オープンソースのフレームワーク Slim3 の開発メンバーの一人であり、また、appengine ja night 等のコミュニティで積極的な活動を行われています。小川さん、よろしくお願いします!

小川さんのブログ: 「404 shin1のつぶやき ないわー Not Found
小川さんの著書: 「オープンソース徹底活用 Slim3 on Google App Engine for Java」(秀和システム)

【Chrome API Developers JP】

前回の API Expert ミーティングで承認された「Chrome API Developers JP」が活動を開始しました。 このコミュニティをリードしてくださる太田昌吾さん、よろしくお願いします!なお、「Chrome API Developers JP」の始動にあわせて、「Chromium Extensions Japan」は、2 月 18 日をもって活動を休止することになりました。Chrome に関心のあるデベロッパーの皆さんは新しいコミュニティにぜひご登録をお願いします。

【リリース情報】

【イベントのお知らせ】

【出版のお知らせ】

API Expert が執筆された最新書籍をご紹介します。

小松健作さん(HTML5 API Expert)と古籏一浩さん(Maps API Expert)他共著の書籍 「JavaScriptコーディング ベストプラクティス 高速かつ堅牢なコードを効率よく書くために(MdN)

JavaScript の高速化と開発効率をアップするベストプラクティスをまとめたもので、スマートフォン、HTML5、CSS3など最新の話題にも言及した、JavaScript上級者向けの書籍です。

なお、今回私は出張のため Google シドニーオフィスから参加しました。下記はシドニーオフィスのエントランスの様子です。





[この記事は、2010年11月に Google Geo Developers Blog に投稿された Maps Data API deprecation announcement (Maps API Product Manager の Thor Mitchell が執筆)を元に作成したものです]

Maps Data API は deprecated(非推奨)となり、2011 年 1 月 31 日以降利用ができなくなりました。データの保護方法や代替ソリューションなどの情報は以下をご覧ください ...


[この記事は、2010年11月に Google Geo Developers Blog に投稿された Maps Data API deprecation announcement (Maps API Product Manager の Thor Mitchell が執筆)を元に作成したものです]

Maps Data API は deprecated(非推奨)となり、2011 年 1 月 31 日以降利用ができなくなりました。データの保護方法や代替ソリューションなどの情報は以下をご覧ください。

Maps Data API は Google Code Labs で昨年ローンチされ、地理空間データをホストするためのスケーラブルな分散プラットフォームを開発者の皆様に提供してきました。それ以来、開発者の方から数多くの貴重なフィードバックをいただきました。たとえば、Maps API アプリケーションの中でホストされたデータを可視化すること、クラウド上に空間データベースを簡単に移行すること、よく知られたデータモデルとクエリの構文などの要望です。

昨年、Fusion Tables に格納されているデータをレンダリングする機能を Google Maps API v3 でローンチしました。Fusion Tables は、大規模な構造化データセットをクラウドに格納することを目的とした Google Research のプロジェクトであり、SQL ベースの API を提供し、空間クエリにも対応しました。開発者向けイベントでもオンラインでも、圧倒的な支持を得ています。Fusion Tables を利用してデータを格納し、視覚化している魅力的な Maps アプリケーションが大幅に増加している様子も見てきました。

こうした開発者の熱意と、Fusion Tables が Maps Data API に対して開発者が求めた機能の多くを実現しているという事実を受け、今後の地理空間データに対するクラウドストレージソリューションとして Fusion Tables を推奨し、Maps Data API を非推奨にすることにしました。

Maps Data API は、2011 年 1 月 31 日までアクセスすることができ、この日以降は Maps Data API を利用して作られた地図は、Google My Maps でアクセスすることができるようになりました。また、Maps Data API のデータ解放ツールを提供しています。このツールは、データを所有するユーザーが、Maps Data API から地図を KML 形式でダウンロードする機能や Fusion Tables に転送する機能を提供しています。データ転送と KML へのダウンロードによって、大半のデータを保持することができます。ただし、めったに使用されることのない機能(特定のカスタムプロパティなど)の中にはKML ファイルのダウンロードができないものもあります。詳細については、ツールの FAQ を参照してください。

Maps Data API の非推奨化について、質問または気になることがありましたら、Maps Data API フォーラムをご参照ください。既に Maps Data API を使っておられ、今回の発表に大変がっかりされている方もいらっしゃると思いますが、ぜひ Fusion Tables をお試しください。簡単に使え、優れた検索や視覚化の機能をもつ Fusion Tables の可能性に、きっと感動を覚えていただけると思います。