pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  • <i id='y5R2n'><tr id='y5R2n'><dt id='y5R2n'><q id='y5R2n'><span id='y5R2n'><b id='y5R2n'><form id='y5R2n'><ins id='y5R2n'></ins><ul id='y5R2n'></ul><sub id='y5R2n'></sub></form><legend id='y5R2n'></legend><bdo id='y5R2n'><pre id='y5R2n'><center id='y5R2n'></center></pre></bdo></b><th id='y5R2n'></th></span></q></dt></tr></i><div class="giwyi2a" id='y5R2n'><tfoot id='y5R2n'></tfoot><dl id='y5R2n'><fieldset id='y5R2n'></fieldset></dl></div>

    1. <tfoot id='y5R2n'></tfoot>
        <bdo id='y5R2n'></bdo><ul id='y5R2n'></ul>
      <legend id='y5R2n'><style id='y5R2n'><dir id='y5R2n'><q id='y5R2n'></q></dir></style></legend>

      <small id='y5R2n'></small><noframes id='y5R2n'>

        使用 pySpark 將 DataFrame 寫入 mysql 表

        Write DataFrame to mysql table using pySpark(使用 pySpark 將 DataFrame 寫入 mysql 表)

          <bdo id='ZLDte'></bdo><ul id='ZLDte'></ul>
        • <i id='ZLDte'><tr id='ZLDte'><dt id='ZLDte'><q id='ZLDte'><span id='ZLDte'><b id='ZLDte'><form id='ZLDte'><ins id='ZLDte'></ins><ul id='ZLDte'></ul><sub id='ZLDte'></sub></form><legend id='ZLDte'></legend><bdo id='ZLDte'><pre id='ZLDte'><center id='ZLDte'></center></pre></bdo></b><th id='ZLDte'></th></span></q></dt></tr></i><div class="gwwu2gu" id='ZLDte'><tfoot id='ZLDte'></tfoot><dl id='ZLDte'><fieldset id='ZLDte'></fieldset></dl></div>
          1. <small id='ZLDte'></small><noframes id='ZLDte'>

            <legend id='ZLDte'><style id='ZLDte'><dir id='ZLDte'><q id='ZLDte'></q></dir></style></legend>
                <tbody id='ZLDte'></tbody>

              1. <tfoot id='ZLDte'></tfoot>

                • 本文介紹了使用 pySpark 將 DataFrame 寫入 mysql 表的處理方法,對(duì)大家解決問(wèn)題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)吧!

                  問(wèn)題描述

                  我正在嘗試將記錄插入到 MySql 表中.該表包含 idname 作為列.

                  I am attempting to insert records into a MySql table. The table contains id and name as columns.

                  我在 pyspark shell 中執(zhí)行如下操作.

                  I am doing like below in a pyspark shell.

                  name = 'tester_1'
                  id = '103'  
                  import pandas as pd
                  l = [id,name]
                  
                  df = pd.DataFrame([l])
                  
                  df.write.format('jdbc').options(
                        url='jdbc:mysql://localhost/database_name',
                        driver='com.mysql.jdbc.Driver',
                        dbtable='DestinationTableName',
                        user='your_user_name',
                        password='your_password').mode('append').save()
                  

                  我收到以下屬性錯(cuò)誤

                  AttributeError: 'DataFrame' 對(duì)象沒(méi)有屬性 'write'

                  我做錯(cuò)了什么?從 pySpark

                  推薦答案

                  使用 Spark DataFrame 而不是 pandas',因?yàn)?.write 僅適用于 Spark Dataframe

                  Use Spark DataFrame instead of pandas', as .write is available on Spark Dataframe only

                  所以最終的代碼可能是

                  data =['103', 'tester_1']
                  
                  df = sc.parallelize(data).toDF(['id', 'name'])
                  
                  df.write.format('jdbc').options(
                        url='jdbc:mysql://localhost/database_name',
                        driver='com.mysql.jdbc.Driver',
                        dbtable='DestinationTableName',
                        user='your_user_name',
                        password='your_password').mode('append').save()
                  

                  這篇關(guān)于使用 pySpark 將 DataFrame 寫入 mysql 表的文章就介紹到這了,希望我們推薦的答案對(duì)大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來(lái)源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問(wèn)題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請(qǐng)聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個(gè)先前值來(lái)決定接下來(lái)的 N 個(gè)行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達(dá)式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項(xiàng)是忽略整個(gè)事務(wù)還是只是有問(wèn)題的行?) - IT屋-程序員軟件開(kāi)發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時(shí)出錯(cuò),使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時(shí)發(fā)生錯(cuò)誤 沒(méi)有合適的驅(qū)動(dòng)程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫(kù)表作為 Spark 數(shù)據(jù)幀讀取?)
                • <legend id='34Dzw'><style id='34Dzw'><dir id='34Dzw'><q id='34Dzw'></q></dir></style></legend>
                    <tbody id='34Dzw'></tbody>

                          <tfoot id='34Dzw'></tfoot>
                          <i id='34Dzw'><tr id='34Dzw'><dt id='34Dzw'><q id='34Dzw'><span id='34Dzw'><b id='34Dzw'><form id='34Dzw'><ins id='34Dzw'></ins><ul id='34Dzw'></ul><sub id='34Dzw'></sub></form><legend id='34Dzw'></legend><bdo id='34Dzw'><pre id='34Dzw'><center id='34Dzw'></center></pre></bdo></b><th id='34Dzw'></th></span></q></dt></tr></i><div class="w00q2gm" id='34Dzw'><tfoot id='34Dzw'></tfoot><dl id='34Dzw'><fieldset id='34Dzw'></fieldset></dl></div>

                            <bdo id='34Dzw'></bdo><ul id='34Dzw'></ul>

                            <small id='34Dzw'></small><noframes id='34Dzw'>

                            主站蜘蛛池模板: 水厂自动化-水厂控制系统-泵站自动化|控制系统-闸门自动化控制-济南华通中控科技有限公司 | 高柔性拖链电缆-聚氨酯卷筒电缆-柔性屏蔽电缆厂家-玖泰电缆 | 铝镁锰板厂家_进口钛锌板_铝镁锰波浪板_铝镁锰墙面板_铝镁锰屋面-杭州军晟金属建筑材料 | 柴油机_柴油发电机_厂家_品牌-江苏卡得城仕发动机有限公司 | 佛山商标注册_商标注册代理|专利注册申请_商标注册公司_鸿邦知识产权 | 闪蒸干燥机-喷雾干燥机-带式干燥机-桨叶干燥机-[常州佳一干燥设备] | 丹佛斯变频器-丹佛斯压力开关-变送器-广州市风华机电设备有限公司 | 定制/定做衬衫厂家/公司-衬衫订做/订制价格/费用-北京圣达信 | 不锈钢法兰-碳钢法兰-法兰盘生产加工厂家-[鼎捷峰]-不锈钢法兰-碳钢法兰-法兰盘生产加工厂家-[鼎捷峰] | 药品/药物稳定性试验考察箱-埃里森仪器设备(上海)有限公司 | 防勒索软件_数据防泄密_Trellix(原McAfee)核心代理商_Trellix(原Fireeye)售后-广州文智信息科技有限公司 | 上海深蓝_缠绕机_缠膜机-上海深蓝机械装备有限公司 | 河北凯普威医疗器材有限公司,高档轮椅系列,推车系列,座厕椅系列,协步椅系列,拐扙系列,卫浴系列 | 企业彩铃制作_移动、联通、电信集团彩铃上传开通_彩铃定制_商务彩铃管理平台-集团彩铃网 | 杭州代理记账费用-公司注销需要多久-公司变更监事_杭州福道财务管理咨询有限公司 | POS机办理_个人POS机免费领取 - 银联POS机申请首页 | 石家庄装修设计_室内家装设计_别墅装饰装修公司-石家庄金舍装饰官网 | 书信之家_书信标准模板范文大全 最新范文网_实用的精品范文美文网 | EPK超声波测厚仪,德国EPK测厚仪维修-上海树信仪器仪表有限公司 | ALC墙板_ALC轻质隔墙板_隔音防火墙板_轻质隔墙材料-湖北博悦佳 | 经济师考试_2025中级经济师报名时间_报名入口_考试时间_华课网校经济师培训网站 | 冲锋衣滑雪服厂家-冲锋衣定制工厂-滑雪服加工厂-广东睿牛户外(S-GERT) | 新中天检测有限公司青岛分公司-山东|菏泽|济南|潍坊|泰安防雷检测验收 | 非标压力容器_碳钢储罐_不锈钢_搪玻璃反应釜厂家-山东首丰智能环保装备有限公司 | 基业箱_环网柜_配电柜厂家_开关柜厂家_开关断路器-东莞基业电气设备有限公司 | 27PR跨境电商导航 | 专注外贸跨境电商 | 中国品牌门窗网_中国十大门窗品牌_著名门窗品牌 | 江苏全风,高压风机,全风环保风机,全风环形高压风机,防爆高压风机厂家-江苏全风环保科技有限公司(官网) | SPC工作站-连杆综合检具-表盘气动量仪-内孔缺陷检测仪-杭州朗多检测仪器有限公司 | 3d打印服务,3d打印汽车,三维扫描,硅胶复模,手板,快速模具,深圳市精速三维打印科技有限公司 | 浙江华锤电器有限公司_地磅称重设备_防作弊地磅_浙江地磅售后维修_无人值守扫码过磅系统_浙江源头地磅厂家_浙江工厂直营地磅 | 长信科技产业园官网_西安厂房_陕西标准工业厂房 | 制氮设备_PSA制氮机_激光切割制氮机_氮气机生产厂家-苏州西斯气体设备有限公司 | 手持式浮游菌采样器-全排二级生物安全柜-浙江孚夏医疗科技有限公司 | 冲击式破碎机-冲击式制砂机-移动碎石机厂家_青州市富康机械有限公司 | 玉米加工设备,玉米深加工机械,玉米糁加工设备.玉米脱皮制糁机 华豫万通粮机 | 昆山PCB加工_SMT贴片_PCB抄板_线路板焊接加工-昆山腾宸电子科技有限公司 | 模温机-油温机-电加热导热油炉-工业冷水机「欧诺智能」 | 碳纤维复合材料制品生产定制工厂订制厂家-凯夫拉凯芙拉碳纤维手机壳套-碳纤维雪茄盒外壳套-深圳市润大世纪新材料科技有限公司 | 深圳宣传片制作-企业宣传视频制作-产品视频拍摄-产品动画制作-短视频拍摄制作公司 | 100_150_200_250_300_350_400公斤压力空气压缩机-舰艇航天配套厂家 |