場景為Spark讀取一張MySQL表(innodb引擎), 數(shù)據(jù)量8000萬,無自增ID,業(yè)務(wù)中一個字段為(訂單ID)主鍵。要將該表數(shù)據(jù)讀取后寫入到HDFS。下面將詳細介紹Spark讀取MySQL大表超時問題。
# 直接使用Spark提供的JDBC分區(qū)數(shù)據(jù)選項 partitionColumn,lowerBound,upperBound
* 不可行,partitionColumn要求是數(shù)值類型,這個表中并沒有雖有一些數(shù)值類型字段,但是并不合適,因為字段值非遞增,不容易設(shè)定分區(qū)的上下界限,這就很容易造成數(shù)據(jù)傾斜。
# 采用 predicates 方式,定義一個劃分數(shù)據(jù)的數(shù)組規(guī)則
* 使用limit 做分頁將數(shù)據(jù)劃分為60個分區(qū),同時優(yōu)化limit查詢,用主鍵做子查詢的方式優(yōu)化。雖然經(jīng)過了查詢優(yōu)化,但是運行時,依然遇到讀取超時錯誤。問題原因是JDBC socketTimeout 設(shè)置了3分鐘,但是某些task讀取mysql時,并沒有在3分鐘內(nèi)返回數(shù)據(jù),是一個慢查詢。 在這個場景下解決方式就是調(diào)大socketTimeout值就可以了,調(diào)成了10分鐘。
* 這里要注意的是一定要對limit做優(yōu)化,使用子查詢或者join方式,根據(jù)主鍵查詢做分頁。 例如下
`select * from table_name where id >= (select id from table_name order by id limit 100000, 1) limit 20000`.
* 如果你直接使用 `select * from table_name limit 100000,20000 `的方式。mysql會查詢出來 120000條數(shù)據(jù),然后再扔掉100000條數(shù)據(jù),這是完全沒有意義的,會有大量無意義IO操作,影響性能。
更多關(guān)于大數(shù)據(jù)培訓(xùn)的問題,歡迎咨詢千鋒教育在線名師,如果想要了解我們的師資、課程、項目實操的話可以點擊咨詢課程顧問,獲取試聽資格來試聽我們的課程,在線零距離接觸千鋒教育大咖名師,讓你輕松從入門到精通。