ビッグデータ ご利用の流れ

データ分析開始までの流れ (1分で流れをつかめます)

1.アカウント登録 [1分]

メールアドレスがあれば誰でも簡単に登録できます。

新規アカウント登録ページを開いて、以下の情報を入力します。

  • 氏名
  • 社名/団体名
  • 電話番号
  • Eメールアドレス
  • 任意のパスワード

入力したEメールアドレスに届く確認メールに記載されているURLをクリックすると、アカウント登録が完了します。

アカウント登録

2.チュートリアルで学習して、分析開始[2分]

チュートリアルを活用し、画面上のガイドに従って、サンプルデータからデータ分析の流れを確認・学習することができます。

画面右上[Help]>[Tutorial]で始められます。

ガイドにより迷わずに操作できます

3.事前準備

モバイルデバイスやウェブなどからのログ送信は分析できるデータ量が蓄積するまで時間が必要です。
まずは既に蓄積しているデータをインポートすることで、すぐに分析が開始できます。

(1)CLIインストール

CLIのインストールには、以下の2通りの方法があります。
Treasure Data Toolbeltをインストールすると、簡単にCLI環境を構築できます。
Toolbelt非対応OSの場合は、RubyやGemをセットアップするとCLIをインストール可能になります。

[1]Treasure Data Toolbeltを利用してTreasure Data CLIをインストールする。
[2]RubyやGemをインストールしてから、 Treasure Data CLIをインストールする。


(2)データベース・テーブル作成

データを蓄積するための空のデータベースとテーブルを作成します。

※データインポート/データ送信時にも作成可能です。
※スキーマ定義は不要です。

データベース・テーブル作成

4.データ送信

モバイルデバイスやウェブなどからのログ送信は分析できるデータ量が蓄積するまで時間が必要です。
まずは既に蓄積しているデータをインポートすることで、すぐに分析が開始できます。

データ送信

新規でデータを収集する場合は2通りのデータ送信が可能です。

  • ログコレクタ(td-agent/fluentdなど)
  • SDK(iOS/Android/Javascript)

データインポート

既存のデータがある場合は2通りのインポートが可能です。

  • CSV/TSVファイル(GUI)
  • バルクインポート機能(CLI)
データ送信

5.データ探索

蓄積されたデータにクエリを実行し、データの中身を探索。必要なデータが揃っているかを調査し、足りない場合は[3.事前準備]でデータを収集します。

クエリ実行

  • バッチクエリ
    SQLライクなHiveで大容量データから短時間で集計することができます。
  • アドホッククエリ
    Prestoに対応。ANSI SQLに準拠。Hiveで効率よく高速に大容量データを処理することができます。
クエリ実行

6.データエクスポート

目的のデータが得られたら、定期クエリなどを設定し、任意の間隔で定期データ抽出を実施。抽出結果をテーブルとして保存したり、さまざまなシステムにエクスポート可能です。

MySQL、PostgreSQL、IDCフロンティア オブジェクトストレージ、Google Spreadsheet、HTTP PUTなど

 はじめての方もカンタン

まずは無料で体験しよう!

「トレジャーデータサービス by IDCF」有料プランへのアップグレードお申し込み

申込書を印刷し、必要事項をご記入ご捺印の上、Email(PDF添付)またはご郵送ください。

郵送 〒102-8124 東京都千代田区紀尾井町1-3 東京ガーデンテラス紀尾井町紀尾井タワー
株式会社IDCフロンティア お申し込み受付担当宛
E-mail ssupport@idcf.jp

記載されている会社名、製品名は、各社の登録商標または商標です。