サーバーレス

DataBricksハンズオン入門 〜Unity Catalogによるデータの可視化〜

choco80

はじめに

最近、案件でデータ分析を行う機会があり、業界で注目されているデータ分析プラットフォームの一つであるDatabricksを触ってみました。

データブリックスについて

Databricksは、Apache Sparkの創設者たちによって2013年に設立された企業が提供する統合データ分析プラットフォームです。(詳細はこちら)
以下のような特徴を持っています。

  • データレイクとデータウェアハウスの機能を統合した「レイクハウス」アーキテクチャを採用
  • データエンジニアリング、機械学習、BIなどの機能を単一のプラットフォームで提供
  • 優れたデータガバナンス機能(Unity Catalog)を搭載
  • クラウドネイティブで、AWS、Azure、GCPに対応

本記事でやること

本記事では、Databricksの基本的な機能を試してみた記録を共有します。特に、データガバナンスの要となるUnity Catalogの機能に焦点を当てて、実際の操作手順をまとめています。

DataBricks環境の作成

DataBricks アカウントとワークスペースの作成

まずはアカウントとワークスペースを作成します。
ワークスペースとは、Databricksアセットを操作するための統合環境です。AWSにおけるマネジメントコンソール、AzureにおけるAzureポータルのような位置付けです。(詳細はこちら)

アカウントの作成手順

DataBricksのホームページから無料トライアルを選択します。
file

今回は検証用途につき[クイックセットアップを続行]を続行を選択します。
file

ワークスペースの初期設定

画面の流れに従って任意のメールアドレス入力→認証コードを入力→アカウント名を入力→拠点(国)を指定→ロボット認証後を実施すると、ワークスペースのトップページが表示されます。
file

クレジットの確認

画面右上の[Manage Trial]を選択肢、無料トライアル用のクレジットが適用されていることを確認します。
トライアル用のクレジット額は変動する可能性があるため、検証時に必ず確認するようにしましょう。
file

予算アラートの設定

必要に応じて左ペインの[Alerts]から予算アラートを作成して下さい。
file

ノートブックの作成

後続の手順で検証を行うためのノートブックを作成して動作確認を行います。

ノートブックは、Databricks上でデータ分析や機械学習を行うためのインタラクティブな作業環境です。(詳細はこちら)
利用者は、ノートブックを利用することでSQL、Python、Scala、Rなどの言語と使ってデータのクエリや分析、処理を記述できます。Jupyter NotebookやGoogle Colabを利用したことがある方であれば、同じような感覚で利用できるかと思います。

ノートブックの作成手順

ワークスペースのトップページ左ペインから[Workspace] - [Create]- [Notebook]を選択します。

Pythonコードの実行確認

動作確認として、以下の流れで簡単なPythonプログラムを実行します。
なお、初回は実行環境の起動のために1分程度の読み込みが発生します。

  • 作成されたノートブックの右上にノートブックを入力します。
  • ノートブック名の右隣にある言語にPythonを選択します。
  • コードブロックにprint("Hello World")を記述します。
  • 本文左上の実行ボタンを押下します。
  • 「Hello World」が出力されたこと確認します。

SQLクエリの実行確認

続いて、以下の流れでSQLクエリも実行してみましょう。

  • 先ほど記述したコードブロックの下部にマウスカーソルを移動します。
  • [+ Code]を選択してコードブロックを追加します。
  • コードブロック右上の言語欄から[SQL]を選択します。
  • コードブロックに以下を記述します。
    %sql
    SELECT 'Hello World';
  • 本文左上の実行ボタンを押下します。
  • 「Hello World」が出力されたこと確認します。
    file

動作確認は以上です。ノートブック上で簡単にプログラムやSQLを実行できることがわかりました。
各コードブロックは不要につき、ゴミ箱アイコンを押下して動作確認用コードを削除して下さい。

Unity Catalogの作成

DataBricksに登録されているサンプルデータセットから、検証用のUnity Catalogにデータを登録します。

Unity Catalogは、Databricksが提供する統合的なデータガバナンス基盤です。(詳細はこちら)
利用者は、Unity Catalogを利用することで各種データについて「どこに何があるか」「誰がどのようにアクセスできるか」「どのように利用されたか」を管理することができます。

Unity Catalogの構成要素

Unity Catalogは、以下に示す要素から構成されます。登場人物として認識して下さい。
DataBricksがデータウェアハウス、データレイクと一線を画す点の一つとして、図の最下部に記載した構造化、半構造化、非構造化データを1つのプラットフォームでまとめて扱えることが上げられます。特徴として抑えておきましょう。

Unity Catalog …データガバナンス・メタデータ管理のカタログ
└── Schema…カタログ内でデータを管理する論理的な区分。データベース。
    └── Table / View / Model/ Function / Volume…Schemaで扱う各データ(構造化、半構造化、非構造化データ)

サンプルデータの確認

検証用のUnity Catalogにデータを登録していきます。まずはノートブックで以下Pythonコマンドを実行し、サンプルデータセットの一覧を表示します。以降、記事内のコードは検証用のノートブックで実行するものとします。

display(dbutils.fs.ls('/databricks-datasets'))

file

自転車シェアリングデータの読み込み

サンプルデータセットのうち、自転車シェアリングに関するデータセットを取得して数レコード表示します。

# データの読み込み
bike_sharing_df = spark.read.csv("/databricks-datasets/bikeSharing/data-001/hour.csv", header=True, inferSchema=True)
display(bike_sharing_df.limit(5))

file

カタログとスキーマの作成

テストデータセットを格納するためのカタログとスキーマを作成します。

%sql
CREATE CATALOG IF NOT EXISTS bike_sharing_catalog;

-- スキーマの作成
USE CATALOG bike_sharing_catalog;
CREATE SCHEMA IF NOT EXISTS rental_data;

テーブルの登録

テスト用データセットから読み込んだデータフレームを、テーブルhourly_rentalsとしてUnity Catalogに登録します。

# カタログとスキーマの指定
catalog_name = "bike_sharing_catalog"
schema_name = "rental_data"

# テーブルの登録
bike_sharing_df.write.format("delta").mode("overwrite").saveAsTable(f"{catalog_name}.{schema_name}.hourly_rentals")

Unity Catalogの構造確認

ワークスペースを確認すると、UnityCatalog・Schema・Tableが作成されていることが確認できます。

各要素は、本節の冒頭で示した構造に照らすと以下の関係になっています。

Unity Catalog …bike_sharing_catalog
└── Schema…rental_data
    └── Table…hourly_rentals

Notebookを用いたデータの可視化

基本的な分析クエリの実行

Notebookを使用して、登録したデータを可視化してみます。
本記事では、データの可視化とプロファイルを用いた確認を行います。

%sql
-- 時間帯別の平均レンタル数
SELECT 
    hr as hour_of_day,
    AVG(cnt) as avg_rentals,
    AVG(CASE WHEN workingday = 1 THEN cnt END) as avg_workday_rentals,
    AVG(CASE WHEN workingday = 0 THEN cnt END) as avg_holiday_rentals
FROM bike_sharing_catalog.rental_data.hourly_rentals
GROUP BY hr
ORDER BY hr;

-- 天候状況別のレンタル数
SELECT 
    CASE 
        WHEN weathersit = 1 THEN '晴れ'
        WHEN weathersit = 2 THEN '曇り'
        WHEN weathersit = 3 THEN '小雨'
        WHEN weathersit = 4 THEN '大雨'
    END as weather,
    COUNT(*) as days,
    AVG(cnt) as avg_rentals
FROM bike_sharing_catalog.rental_data.hourly_rentals
GROUP BY weathersit
ORDER BY weathersit;

クエリの実行結果より、天候別の日数と平均レンタル数が出力できました。
雨の日に自転車を借りるのは危ないのでやめましょう。
file

データの可視化

[Table]タブ右側の[+]ボタンを押下し、[Visualization]を選択します。
file

Visualization Editorにて以下の通り入力し[Save]を押下し、天気と日数を帯グラフとして表示できます。
可視化のタイプには棒グラフ、バブルチャートなど様々なものがあり、目的に応じたデータ整形が可能です。(可視化の種類はこちら)
file

データプロファイルの確認

先ほどと同様に[+]ボタンを押下し、[Data Profile]を選択します。
file

テーブル内の全てのカラムのデータ分布などを確認することが可能です。
file

確認は以上です。様々な切り口からの可視化ができるので、気になる方がいたら試してみて下さい。

検証用リソースの削除

Unity Catalogの削除

各要素は子要素があると削除に失敗するため、削除は必ず「テーブル → スキーマ → カタログ」の順序で行って下さい。

テーブルの削除

%sql
DROP TABLE bike_sharing_catalog.rental_data.hourly_rentals;

スキーマの削除

下記の他に「information_schema」というスキーマも存在しますが、これはシステム所有のスキーマのため削除ができません。カタログの削除に影響しないため無視して問題ありません。

%sql
DROP SCHEMA bike_sharing_catalog.rental_data;
DROP SCHEMA bike_sharing_catalog.default;

カタログの削除

%sql
DROP CATALOG bike_sharing_catalog;

ワークスペースの削除

ワークスペースの削除手順

以下の画面から[Move to Trash]を選択します。削除確認画面で対象を確認の上で削除を実行します。

ゴミ箱からの完全削除

Trash欄から[Permanently delete]を選択します。

ワークスペースの数だけ上記を実施して下さい。
以下の画面から[Delete]を選択します。

リソースの削除が完了しました。

おわりに

DataBricksの基本的な機能を使ってデータの可視化ができて楽しかったです。
機会があれば、パイプラインを用いた分析やAI(Genie)を使った分析もやってみたいと思います。

参考文献

AUTHOR
choco80
choco80
記事URLをコピーしました