pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

    <bdo id='QYDiF'></bdo><ul id='QYDiF'></ul>

<i id='QYDiF'><tr id='QYDiF'><dt id='QYDiF'><q id='QYDiF'><span id='QYDiF'><b id='QYDiF'><form id='QYDiF'><ins id='QYDiF'></ins><ul id='QYDiF'></ul><sub id='QYDiF'></sub></form><legend id='QYDiF'></legend><bdo id='QYDiF'><pre id='QYDiF'><center id='QYDiF'></center></pre></bdo></b><th id='QYDiF'></th></span></q></dt></tr></i><div class="0egeuaw" id='QYDiF'><tfoot id='QYDiF'></tfoot><dl id='QYDiF'><fieldset id='QYDiF'></fieldset></dl></div>

<small id='QYDiF'></small><noframes id='QYDiF'>

    1. <legend id='QYDiF'><style id='QYDiF'><dir id='QYDiF'><q id='QYDiF'></q></dir></style></legend>
      <tfoot id='QYDiF'></tfoot>

        如何在 jdbc 數據源中使用 dbtable 選項的子查詢?

        How to use a subquery for dbtable option in jdbc data source?(如何在 jdbc 數據源中使用 dbtable 選項的子查詢?)

              <i id='QdQiP'><tr id='QdQiP'><dt id='QdQiP'><q id='QdQiP'><span id='QdQiP'><b id='QdQiP'><form id='QdQiP'><ins id='QdQiP'></ins><ul id='QdQiP'></ul><sub id='QdQiP'></sub></form><legend id='QdQiP'></legend><bdo id='QdQiP'><pre id='QdQiP'><center id='QdQiP'></center></pre></bdo></b><th id='QdQiP'></th></span></q></dt></tr></i><div class="0q2wswu" id='QdQiP'><tfoot id='QdQiP'></tfoot><dl id='QdQiP'><fieldset id='QdQiP'></fieldset></dl></div>

                <small id='QdQiP'></small><noframes id='QdQiP'>

              • <legend id='QdQiP'><style id='QdQiP'><dir id='QdQiP'><q id='QdQiP'></q></dir></style></legend>
              • <tfoot id='QdQiP'></tfoot>

                  <tbody id='QdQiP'></tbody>
                  <bdo id='QdQiP'></bdo><ul id='QdQiP'></ul>
                  本文介紹了如何在 jdbc 數據源中使用 dbtable 選項的子查詢?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我想使用 Spark 處理來自 JDBC 源的一些數據.但是首先,我想在JDBC端運行一些查詢來過濾列和連接表,而不是從JDBC讀取原始表,并將查詢結果作為表加載到Spark SQL中.

                  I want to use Spark to process some data from a JDBC source. But to begin with, instead of reading original tables from JDBC, I want to run some queries on the JDBC side to filter columns and join tables, and load the query result as a table in Spark SQL.

                  以下加載原始 JDBC 表的語法適用于我:

                  The following syntax to load raw JDBC table works for me:

                  df_table1 = sqlContext.read.format('jdbc').options(
                      url="jdbc:mysql://foo.com:3306",
                      dbtable="mydb.table1",
                      user="me",
                      password="******",
                      driver="com.mysql.jdbc.Driver" # mysql JDBC driver 5.1.41
                  ).load() 
                  df_table1.show() # succeeded
                  

                  根據 Spark 文檔(我使用的是 PySpark 1.6.3):

                  According to Spark documentation (I'm using PySpark 1.6.3):

                  dbtable:應該讀取的 JDBC 表.請注意,任何有效的可以在 SQL 查詢的 FROM 子句中使用.例如,而不是完整的表,您也可以在括號中使用子查詢.

                  dbtable: The JDBC table that should be read. Note that anything that is valid in a FROM clause of a SQL query can be used. For example, instead of a full table you could also use a subquery in parentheses.

                  所以只是為了實驗,我嘗試了一些簡單的方法:

                  So just for experiment, I tried something simple like this:

                  df_table1 = sqlContext.read.format('jdbc').options(
                      url="jdbc:mysql://foo.com:3306",
                      dbtable="(SELECT * FROM mydb.table1) AS table1",
                      user="me",
                      password="******",
                      driver="com.mysql.jdbc.Driver"
                  ).load() # failed
                  

                  它拋出了以下異常:

                  com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'table1 WHERE 1=0' at line 1
                  

                  我還嘗試了其他一些語法變體(添加/刪除括號、刪除as"子句、切換大小寫等),但都沒有成功.那么正確的語法是什么?在哪里可以找到更詳細的語法文檔?此外,錯誤消息中這個奇怪的WHERE 1 = 0"來自哪里?謝謝!

                  I also tried a few other variations of the syntax (add / remove parentheses, remove 'as' clause, switch case, etc) without any luck. So what would be the correct syntax? Where can I find more detailed documentation for the syntax? Besides, where does this weird "WHERE 1=0" in error message come from? Thanks!

                  推薦答案

                  對于在 Spark SQL 中使用 sql 查詢從 JDBC 源讀取數據,您可以嘗試如下操作:

                  For reading data from JDBC source using sql query in Spark SQL, you can try something like this:

                  val df_table1 = sqlContext.read.format("jdbc").options(Map(
                      ("url" -> "jdbc:postgresql://localhost:5432/mydb"),
                      ("dbtable" -> "(select * from table1) as table1"),
                      ("user" -> "me"),
                      ("password" -> "******"),
                      ("driver" -> "org.postgresql.Driver"))
                  ).load()
                  

                  我用 PostgreSQL 試過了.可以根據MySQL修改.

                  I tried it using PostgreSQL. You can modify it according to MySQL.

                  這篇關于如何在 jdbc 數據源中使用 dbtable 選項的子查詢?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                  【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                    <tbody id='nVwM8'></tbody>
                • <tfoot id='nVwM8'></tfoot>
                • <legend id='nVwM8'><style id='nVwM8'><dir id='nVwM8'><q id='nVwM8'></q></dir></style></legend>

                        <bdo id='nVwM8'></bdo><ul id='nVwM8'></ul>
                      • <small id='nVwM8'></small><noframes id='nVwM8'>

                            <i id='nVwM8'><tr id='nVwM8'><dt id='nVwM8'><q id='nVwM8'><span id='nVwM8'><b id='nVwM8'><form id='nVwM8'><ins id='nVwM8'></ins><ul id='nVwM8'></ul><sub id='nVwM8'></sub></form><legend id='nVwM8'></legend><bdo id='nVwM8'><pre id='nVwM8'><center id='nVwM8'></center></pre></bdo></b><th id='nVwM8'></th></span></q></dt></tr></i><div class="02oekis" id='nVwM8'><tfoot id='nVwM8'></tfoot><dl id='nVwM8'><fieldset id='nVwM8'></fieldset></dl></div>
                            主站蜘蛛池模板: 胶泥瓷砖胶,轻质粉刷石膏,嵌缝石膏厂家,腻子粉批发,永康家德兴,永康市家德兴建材厂 | 对夹式止回阀厂家,温州对夹式止回阀制造商--永嘉县润丰阀门有限公司 | 国标白水泥,高标号白水泥,白水泥厂家-淄博华雪建材有限公司 | 湖南专升本-湖南省专升本报名-湖南统招专升本考试网 | 软文世界-软文推广-软文营销-新闻稿发布-一站式软文自助发稿平台 | 废气处理设备-工业除尘器-RTO-RCO-蓄热式焚烧炉厂家-江苏天达环保设备有限公司 | IIS7站长之家-站长工具-爱网站请使用IIS7站长综合查询工具,中国站长【WWW.IIS7.COM】 | 太阳能发电系统-太阳能逆变器,控制器-河北沐天太阳能科技首页 | 物流公司电话|附近物流公司电话上门取货 | 山东彩钢板房,山东彩钢活动房,临沂彩钢房-临沂市贵通钢结构工程有限公司 | 反渗透水处理设备|工业零排放|水厂设备|软化水设备|海南净水设备--海南水处理设备厂家 | 炉门刀边腹板,焦化设备配件,焦化焦炉设备_沧州瑞创机械制造有限公司 | 深圳品牌设计公司-LOGO设计公司-VI设计公司-未壳创意 | 海鲜池-专注海鲜鱼缸、移动海鲜缸、饭店鱼缸设计定做-日晟水族厂家 | 三佳互联一站式网站建设服务|网站开发|网站设计|网站搭建服务商 赛默飞Thermo veritiproPCR仪|ProFlex3 x 32PCR系统|Countess3细胞计数仪|371|3111二氧化碳培养箱|Mirco17R|Mirco21R离心机|仟诺生物 | 淬火设备-钎焊机-熔炼炉-中频炉-锻造炉-感应加热电源-退火机-热处理设备-优造节能 | 不锈钢闸阀_球阀_蝶阀_止回阀_调节阀_截止阀-可拉伐阀门(上海)有限公司 | 右手官网|右手工业设计|外观设计公司|工业设计公司|产品创新设计|医疗产品结构设计|EMC产品结构设计 | BAUER减速机|ROSSI-MERSEN熔断器-APTECH调压阀-上海爱泽工业设备有限公司 | EDLC超级法拉电容器_LIC锂离子超级电容_超级电容模组_软包单体电容电池_轴向薄膜电力电容器_深圳佳名兴电容有限公司_JMX专注中高端品牌电容生产厂家 | 干洗加盟网-洗衣店品牌排行-干洗设备价格-干洗连锁加盟指南 | 地磅-地秤-江阴/无锡地磅-江阴天亿计量设备有限公司_ | 警方提醒:赣州约炮论坛真的安全吗?2025年新手必看的网络交友防坑指南 | 网站建设-网站制作-网站设计-网站开发定制公司-网站SEO优化推广-咏熠软件 | 不锈钢反应釜,不锈钢反应釜厂家-价格-威海鑫泰化工机械有限公司 不干胶标签-不干胶贴纸-不干胶标签定制-不干胶标签印刷厂-弗雷曼纸业(苏州)有限公司 | 双相钢_双相不锈钢_双相钢圆钢棒_双相不锈钢报价「海新双相钢」 双能x射线骨密度检测仪_dxa骨密度仪_双能x线骨密度仪_品牌厂家【品源医疗】 | 自动气象站_农业气象站_超声波气象站_防爆气象站-山东万象环境科技有限公司 | 气力输送_输送机械_自动化配料系统_负压吸送_制造主力军江苏高达智能装备有限公司! | 交联度测试仪-湿漏电流测试仪-双85恒温恒湿试验箱-常州市科迈实验仪器有限公司 | 合同书格式和范文_合同书样本模板_电子版合同,找范文吧 | 萃取箱-萃取槽-PVC萃取箱厂家-混合澄清槽- 杭州南方化工设备 | 广州中央空调回收,二手中央空调回收,旧空调回收,制冷设备回收,冷气机组回收公司-广州益夫制冷设备回收公司 | 粘弹体防腐胶带,聚丙烯防腐胶带-全民塑胶 | 加热制冷恒温循环器-加热制冷循环油浴-杭州庚雨仪器有限公司 | 动库网动库商城-体育用品专卖店:羽毛球,乒乓球拍,网球,户外装备,运动鞋,运动包,运动服饰专卖店-正品运动品网上商城动库商城网 - 动库商城 | 路面机械厂家| 冷藏车-东风吸污车-纯电动环卫车-污水净化车-应急特勤保障车-程力专汽厂家-程力专用汽车股份有限公司销售二十一分公司 | 协议书_协议合同格式模板范本大全 | 逗网红-抖音网红-快手网红-各大平台网红物品导航 | 企业微信scrm管理系统_客户关系管理平台_私域流量运营工具_CRM、ERP、OA软件-腾辉网络 | 联系我们老街华纳娱乐公司官网19989979996(客服) |