mytestdb という名前の Apache Spark データベースを含む MyWorkspace という名前の Azure Synapse ワークスペースがあります。
MyWorkspace の Azure Synapse Analytics Spark プールで次のコマンドを実行します。
CREATE TABLE mytestdb.myParquetTable(
従業員ID int、
従業員名の文字列、
従業員開始日)
寄木細工の使用
次に、Spark を使用して mytestdb.myParquetTable に行を挿入します。この行には、次のデータが含まれます。

1 分後、MyWorkspace のサーバーレス SQL プールから次のクエリを実行します。
従業員IDを選択
FROM mytestdb.dbo.myParquetTable
WHERE 名 = 'アリス';
クエリによって何が返されますか?
正解:B
Once a database has been created by a Spark job, you can create tables in it with Spark that use Parquet as the storage format. Table names will be converted to lower case and need to be queried using the lower case name.
These tables will immediately become available for querying by any of the Azure Synapse workspace Spark pools. They can also be used from any of the Spark jobs subject to permissions.
Note: For external tables, since they are synchronized to serverless SQL pool asynchronously, there will be a delay until they appear.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/metadata/table