
説明

手順1:AzureDatabricksサービスをデプロイする
Azure Databricks Serviceをセットアップして、AzureDatabricksワークスペースを作成します。
ステップ2:Sparkクラスターをデプロイしてから、必要なライブラリーをクラスターに接続します。
DatabricksでSparkクラスターを作成するには、Azureポータルで、作成したDatabricksワークスペースに移動し、[ワークスペースの起動]を選択します。
ライブラリをSparkクラスターにアタッチします。TwitterAPIを使用してツイートをイベントハブに送信します。また、Apache Spark Event Hubsコネクターを使用して、Azure EventHubsへのデータの読み取りと書き込みを行います。これらのAPIをクラスターの一部として使用するには、これらのAPIをライブラリとしてAzure Databricksに追加し、Sparkクラスターに関連付けます。
ステップ3:ストリーミングデータを消費するノートブックを作成して構成します。
DatabricksワークスペースにReadTweetsFromEventhubという名前のノートブックを作成します。
ReadTweetsFromEventHubは、イベントハブからツイートを読み取るために使用するコンシューマーノートブックです。
参照:
https://docs.microsoft.com/en-us/azure/azure-databricks/databricks-stream-from-eventhubs