pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

<small id='tJMOL'></small><noframes id='tJMOL'>

  • <tfoot id='tJMOL'></tfoot>
      <bdo id='tJMOL'></bdo><ul id='tJMOL'></ul>

    1. <legend id='tJMOL'><style id='tJMOL'><dir id='tJMOL'><q id='tJMOL'></q></dir></style></legend>
        <i id='tJMOL'><tr id='tJMOL'><dt id='tJMOL'><q id='tJMOL'><span id='tJMOL'><b id='tJMOL'><form id='tJMOL'><ins id='tJMOL'></ins><ul id='tJMOL'></ul><sub id='tJMOL'></sub></form><legend id='tJMOL'></legend><bdo id='tJMOL'><pre id='tJMOL'><center id='tJMOL'></center></pre></bdo></b><th id='tJMOL'></th></span></q></dt></tr></i><div class="rfvpxxl" id='tJMOL'><tfoot id='tJMOL'></tfoot><dl id='tJMOL'><fieldset id='tJMOL'></fieldset></dl></div>

        spark從mysql并行讀取數據

        spark reading data from mysql in parallel(spark從mysql并行讀取數據)
          <bdo id='j3z6h'></bdo><ul id='j3z6h'></ul>

        • <legend id='j3z6h'><style id='j3z6h'><dir id='j3z6h'><q id='j3z6h'></q></dir></style></legend>
          • <small id='j3z6h'></small><noframes id='j3z6h'>

            <tfoot id='j3z6h'></tfoot>
          • <i id='j3z6h'><tr id='j3z6h'><dt id='j3z6h'><q id='j3z6h'><span id='j3z6h'><b id='j3z6h'><form id='j3z6h'><ins id='j3z6h'></ins><ul id='j3z6h'></ul><sub id='j3z6h'></sub></form><legend id='j3z6h'></legend><bdo id='j3z6h'><pre id='j3z6h'><center id='j3z6h'></center></pre></bdo></b><th id='j3z6h'></th></span></q></dt></tr></i><div class="xx7flrp" id='j3z6h'><tfoot id='j3z6h'></tfoot><dl id='j3z6h'><fieldset id='j3z6h'></fieldset></dl></div>
              <tbody id='j3z6h'></tbody>

                  本文介紹了spark從mysql并行讀取數據的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我正在嘗試從 mysql 讀取數據并將其寫回 s3 中具有特定分區的 parquet 文件,如下所示:

                  Im trying to read data from mysql and write it back to parquet file in s3 with specific partitions as follows:

                  df=sqlContext.read.format('jdbc')\
                     .options(driver='com.mysql.jdbc.Driver',url="""jdbc:mysql://<host>:3306/<>db?user=<usr>&password=<pass>""",
                           dbtable='tbl',
                           numPartitions=4 )\
                     .load()
                  
                  
                  df2=df.withColumn('updated_date',to_date(df.updated_at))
                  df2.write.parquet(path='s3n://parquet_location',mode='append',partitionBy=['updated_date'])
                  

                  我的問題是它只打開一個到 mysql 的連接(而不是 4 個),并且在它從 mysql 獲取所有數據之前它不會寫入 parquert,因為我在 mysql 中的表很大(100M 行)進程失敗內存不足.

                  My problem is that it open only one connection to mysql (instead of 4) and it doesn't write to parquert until it fetches all the data from mysql, because my table in mysql is huge (100M rows) the process failed on OutOfMemory.

                  有沒有辦法配置Spark打開多個mysql連接并將部分數據寫入parquet?

                  Is there a way to configure Spark to open more than one connection to mysql and to write partial data to parquet?

                  推薦答案

                  你應該設置這些屬性:

                  partitionColumn, 
                  lowerBound, 
                  upperBound, 
                  numPartitions
                  

                  正如這里記錄的那樣:http://spark.apache.org/docs/latest/sql-programming-guide.html#jdbc-to-other-databases

                  這篇關于spark從mysql并行讀取數據的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                      <legend id='ULyWG'><style id='ULyWG'><dir id='ULyWG'><q id='ULyWG'></q></dir></style></legend>

                      • <small id='ULyWG'></small><noframes id='ULyWG'>

                        <tfoot id='ULyWG'></tfoot>

                            <tbody id='ULyWG'></tbody>
                            <bdo id='ULyWG'></bdo><ul id='ULyWG'></ul>

                            <i id='ULyWG'><tr id='ULyWG'><dt id='ULyWG'><q id='ULyWG'><span id='ULyWG'><b id='ULyWG'><form id='ULyWG'><ins id='ULyWG'></ins><ul id='ULyWG'></ul><sub id='ULyWG'></sub></form><legend id='ULyWG'></legend><bdo id='ULyWG'><pre id='ULyWG'><center id='ULyWG'></center></pre></bdo></b><th id='ULyWG'></th></span></q></dt></tr></i><div class="pntjfdf" id='ULyWG'><tfoot id='ULyWG'></tfoot><dl id='ULyWG'><fieldset id='ULyWG'></fieldset></dl></div>
                          • 主站蜘蛛池模板: 艾乐贝拉细胞研究中心 | 国家组织工程种子细胞库华南分库 | 深圳APP开发_手机软件APP定制外包_小程序开发公司-来科信 | 塑料异型材_PVC异型材_封边条生产厂家_PC灯罩_防撞扶手_医院扶手价格_东莞市怡美塑胶制品有限公司 | 郑州爱婴幼师学校_专业幼师培训_托育师培训_幼儿教育培训学校 | 不锈钢酒柜|恒温酒柜|酒柜定制|酒窖定制-上海啸瑞实业有限公司 | 带式过滤机厂家_价格_型号规格参数-江西核威环保科技有限公司 | 电子巡更系统-巡检管理系统-智能巡检【金万码】 | 代理记账_公司起名核名_公司注册_工商注册-睿婕实业有限公司 | 3dmax渲染-效果图渲染-影视动画渲染-北京快渲科技有限公司 | 全自动实验室洗瓶机,移液管|培养皿|进样瓶清洗机,清洗剂-广州摩特伟希尔机械设备有限责任公司 | 精密模具加工制造 - 富东懿 | 衬塑管道_衬四氟管道厂家-淄博恒固化工设备有限公司 | 工业雾炮机_超细雾炮_远程抑尘射雾器-世纪润德环保设备 | 活性炭-果壳木质煤质柱状粉状蜂窝活性炭厂家价格多少钱 | 机械立体车库租赁_立体停车设备出租_智能停车场厂家_春华起重 | 运动木地板价格,篮球馆体育运动木地板生产厂家_欧氏地板 | 百度网站优化,关键词排名,SEO优化-搜索引擎营销推广 | 口臭的治疗方法,口臭怎么办,怎么除口臭,口臭的原因-口臭治疗网 | 压缩空气检测_气体_水质找上海京工-服务专业、价格合理 | 自清洗过滤器-全自动自清洗过反冲洗过滤器 - 中乂(北京)科技有限公司 | 无线遥控更衣吊篮_IC卡更衣吊篮_电动更衣吊篮配件_煤矿更衣吊篮-力得电子 | 粘度计,数显粘度计,指针旋转粘度计| 北京印刷厂_北京印刷_北京印刷公司_北京印刷厂家_北京东爵盛世印刷有限公司 | 上海冠顶工业设备有限公司-隧道炉,烘箱,UV固化机,涂装设备,高温炉,工业机器人生产厂家 | 双相钢_双相不锈钢_双相钢圆钢棒_双相不锈钢报价「海新双相钢」 双能x射线骨密度检测仪_dxa骨密度仪_双能x线骨密度仪_品牌厂家【品源医疗】 | 上海网站建设-上海网站制作-上海网站设计-上海做网站公司-咏熠软件 | 无机纤维喷涂棉-喷涂棉施工工程-山东华泉建筑工程有限公司▲ | 珠海白蚁防治_珠海灭鼠_珠海杀虫灭鼠_珠海灭蟑螂_珠海酒店消杀_珠海工厂杀虫灭鼠_立净虫控防治服务有限公司 | 自动螺旋上料机厂家价格-斗式提升机定制-螺杆绞龙输送机-杰凯上料机 | 宿舍管理系统_智慧园区系统_房屋/房产管理系统_公寓管理系统 | (中山|佛山|江门)环氧地坪漆,停车场地板漆,车库地板漆,聚氨酯地板漆-中山永旺地坪漆厂家 | 河南橡胶接头厂家,河南波纹补偿器厂家,河南可曲挠橡胶软连接,河南套筒补偿器厂家-河南正大阀门 | 能量回馈_制动单元_电梯节能_能耗制动_深圳市合兴加能科技有限公司 | 综合管廊模具_生态,阶梯护坡模具_检查井模具制造-致宏模具厂家 | 管形母线,全绝缘铜管母线厂家-山东佰特电气科技有限公司 | GAST/BRIWATEC/CINCINNATI/KARL-KLEIN/ZIEHL-ABEGG风机|亚喜科技 | 理化生实验室设备,吊装实验室设备,顶装实验室设备,实验室成套设备厂家,校园功能室设备,智慧书法教室方案 - 东莞市惠森教学设备有限公司 | 艺术涂料|木纹漆施工|稻草漆厂家|马来漆|石桦奴|水泥漆|选加河南天工涂料 | 除湿机|工业除湿机|抽湿器|大型地下室车间仓库吊顶防爆除湿机|抽湿烘干房|新风除湿机|调温/降温除湿机|恒温恒湿机|加湿机-杭州川田电器有限公司 | 防腐储罐_塑料储罐_PE储罐厂家_淄博富邦滚塑防腐设备科技有限公司 | 杰福伦_磁致伸缩位移传感器_线性位移传感器-意大利GEFRAN杰福伦-河南赉威液压科技有限公司 |