> 有時(shí)候有沒有這么一種情況顾犹,我拿到了一個(gè)sql,csv,parquet文件,一起來(lái)就想寫sql褒墨,不想寫那些亂七八糟的的東西炫刷,只是想快速實(shí)現(xiàn)我要的聚合查詢數(shù)據(jù)。那么我們可以利用spark-sql直接操作文件的特性處理這類的需求郁妈,姐姐再也不用擔(dān)心我不會(huì)spark了浑玛,因?yàn)槲揖椭粫?huì)sql。
## 使用方法
csv
```
spark.sql("select * from csv.`/tmp/demo.csv`").show(false)
```
json
```
spark.sql("select * from json.`/tmp/demo.json`").show(false)
```
parquet
```
spark.sql("select * from parquet.`/tmp/demo.parquet`").show(false)
```
![](https://upload-images.jianshu.io/upload_images/9028759-054b37583ddfab28.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
---
![](https://upload-images.jianshu.io/upload_images/9028759-07315bb8dadcd082.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)