pbootcms网站模板|日韩1区2区|织梦模板||网站源码|日韩1区2区|jquery建站特效-html5模板网

  1. <legend id='M4oVT'><style id='M4oVT'><dir id='M4oVT'><q id='M4oVT'></q></dir></style></legend>
    <i id='M4oVT'><tr id='M4oVT'><dt id='M4oVT'><q id='M4oVT'><span id='M4oVT'><b id='M4oVT'><form id='M4oVT'><ins id='M4oVT'></ins><ul id='M4oVT'></ul><sub id='M4oVT'></sub></form><legend id='M4oVT'></legend><bdo id='M4oVT'><pre id='M4oVT'><center id='M4oVT'></center></pre></bdo></b><th id='M4oVT'></th></span></q></dt></tr></i><div class="uauciiy" id='M4oVT'><tfoot id='M4oVT'></tfoot><dl id='M4oVT'><fieldset id='M4oVT'></fieldset></dl></div>
    • <bdo id='M4oVT'></bdo><ul id='M4oVT'></ul>

    <tfoot id='M4oVT'></tfoot>

    <small id='M4oVT'></small><noframes id='M4oVT'>

      在“GROUP BY"中重用選擇表達式的結果;條款

      reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
    1. <small id='pSPaq'></small><noframes id='pSPaq'>

    2. <legend id='pSPaq'><style id='pSPaq'><dir id='pSPaq'><q id='pSPaq'></q></dir></style></legend>
      <i id='pSPaq'><tr id='pSPaq'><dt id='pSPaq'><q id='pSPaq'><span id='pSPaq'><b id='pSPaq'><form id='pSPaq'><ins id='pSPaq'></ins><ul id='pSPaq'></ul><sub id='pSPaq'></sub></form><legend id='pSPaq'></legend><bdo id='pSPaq'><pre id='pSPaq'><center id='pSPaq'></center></pre></bdo></b><th id='pSPaq'></th></span></q></dt></tr></i><div class="s0uc22e" id='pSPaq'><tfoot id='pSPaq'></tfoot><dl id='pSPaq'><fieldset id='pSPaq'></fieldset></dl></div>

        • <tfoot id='pSPaq'></tfoot>
              • <bdo id='pSPaq'></bdo><ul id='pSPaq'></ul>

                  <tbody id='pSPaq'></tbody>
                本文介紹了在“GROUP BY"中重用選擇表達式的結果;條款?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                問題描述

                在 MySQL 中,我可以有這樣的查詢:

                In MySQL, I can have a query like this:

                select  
                    cast(from_unixtime(t.time, '%Y-%m-%d %H:00') as datetime) as timeHour
                    , ... 
                from
                    some_table t 
                group by
                    timeHour, ...
                order by
                    timeHour, ...
                

                其中 GROUP BY 中的 timeHour 是選擇表達式的結果.

                where timeHour in the GROUP BY is the result of a select expression.

                但是我剛剛嘗試了一個類似于 Sqark SQL 中的查詢,我得到了一個錯誤

                But I just tried a query similar to that in Sqark SQL, and I got an error of

                Error: org.apache.spark.sql.AnalysisException: 
                cannot resolve '`timeHour`' given input columns: ...
                

                我對 Spark SQL 的查詢是這樣的:

                My query for Spark SQL was this:

                select  
                      cast(t.unixTime as timestamp) as timeHour
                    , ...
                from
                    another_table as t
                group by
                    timeHour, ...
                order by
                    timeHour, ...
                

                這個結構在 Spark SQL 中可行嗎?

                Is this construct possible in Spark SQL?

                推薦答案

                這個結構在 Spark SQL 中可行嗎?

                Is this construct possible in Spark SQL?

                是的,是.您可以通過兩種方式使其在 Spark SQL 中工作,以在 GROUP BYORDER BY 子句中使用新列

                Yes, It is. You can make it works in Spark SQL in 2 ways to use new column in GROUP BY and ORDER BY clauses

                使用子查詢的方法一:

                SELECT timeHour, someThing FROM (SELECT  
                      from_unixtime((starttime/1000)) AS timeHour
                    , sum(...)                          AS someThing
                    , starttime
                FROM
                    some_table) 
                WHERE
                    starttime >= 1000*unix_timestamp('2017-09-16 00:00:00')
                      AND starttime <= 1000*unix_timestamp('2017-09-16 04:00:00')
                GROUP BY
                    timeHour
                ORDER BY
                    timeHour
                LIMIT 10;
                

                方法 2 使用 WITH//優雅的方式:

                -- create alias 
                WITH table_aliase AS(SELECT  
                      from_unixtime((starttime/1000)) AS timeHour
                    , sum(...)                          AS someThing
                    , starttime
                FROM
                    some_table)
                
                -- use the same alias as table
                SELECT timeHour, someThing FROM table_aliase
                WHERE
                    starttime >= 1000*unix_timestamp('2017-09-16 00:00:00')
                      AND starttime <= 1000*unix_timestamp('2017-09-16 04:00:00')
                GROUP BY
                    timeHour
                ORDER BY
                    timeHour
                LIMIT 10;
                

                在 Scala 中使用 Spark DataFrame(wo SQL) API 的替代方法:

                // This code may need additional import to work well
                
                val df = .... //load the actual table as df
                
                import org.apache.spark.sql.functions._
                
                df.withColumn("timeHour", from_unixtime($"starttime"/1000))
                  .groupBy($"timeHour")
                  .agg(sum("...").as("someThing"))
                  .orderBy($"timeHour")
                  .show()
                
                //another way - as per eliasah comment
                df.groupBy(from_unixtime($"starttime"/1000).as("timeHour"))
                  .agg(sum("...").as("someThing"))
                  .orderBy($"timeHour")
                  .show()
                

                這篇關于在“GROUP BY"中重用選擇表達式的結果;條款?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網!

                【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!

                相關文檔推薦

                How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數根據 N 個先前值來決定接下來的 N 個行)
                Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發技
                Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環數組)
                pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調用 o23.load 時發生錯誤 沒有合適的驅動程序)
                How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數據庫表作為 Spark 數據幀讀取?)
                In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數據庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                  <tbody id='sWR4t'></tbody>
                • <small id='sWR4t'></small><noframes id='sWR4t'>

                  <tfoot id='sWR4t'></tfoot>
                  • <bdo id='sWR4t'></bdo><ul id='sWR4t'></ul>

                      <i id='sWR4t'><tr id='sWR4t'><dt id='sWR4t'><q id='sWR4t'><span id='sWR4t'><b id='sWR4t'><form id='sWR4t'><ins id='sWR4t'></ins><ul id='sWR4t'></ul><sub id='sWR4t'></sub></form><legend id='sWR4t'></legend><bdo id='sWR4t'><pre id='sWR4t'><center id='sWR4t'></center></pre></bdo></b><th id='sWR4t'></th></span></q></dt></tr></i><div class="sg0auig" id='sWR4t'><tfoot id='sWR4t'></tfoot><dl id='sWR4t'><fieldset id='sWR4t'></fieldset></dl></div>
                        <legend id='sWR4t'><style id='sWR4t'><dir id='sWR4t'><q id='sWR4t'></q></dir></style></legend>

                          主站蜘蛛池模板: 称重传感器,测力传感器,拉压力传感器,压力变送器,扭矩传感器,南京凯基特电气有限公司 | 礼仪庆典公司,礼仪策划公司,庆典公司,演出公司,演艺公司,年会酒会,生日寿宴,动工仪式,开工仪式,奠基典礼,商务会议,竣工落成,乔迁揭牌,签约启动-东莞市开门红文化传媒有限公司 | 智能化的检漏仪_气密性测试仪_流量测试仪_流阻阻力测试仪_呼吸管快速检漏仪_连接器防水测试仪_车载镜头测试仪_奥图自动化科技 | 微型实验室真空泵-无油干式真空泵-微型涡旋耐腐蚀压缩机-思科涡旋科技(杭州)有限公司 | 电磁流量计厂家_涡街流量计厂家_热式气体流量计-青天伟业仪器仪表有限公司 | 商秀—企业短视频代运营_抖音企业号托管| 爆破器材运输车|烟花爆竹运输车|1-9类危险品厢式运输车|湖北江南专用特种汽车有限公司 | 层流手术室净化装修-检验科ICU改造施工-华锐净化工程-特殊科室建设厂家 | 坏男孩影院-提供最新电影_动漫_综艺_电视剧_迅雷免费电影最新观看 | SMC-ASCO-CKD气缸-FESTO-MAC电磁阀-上海天筹自动化设备官网 | 石家庄装修设计_室内家装设计_别墅装饰装修公司-石家庄金舍装饰官网 | 武汉天安盾电子设备有限公司 - 安盾安检,武汉安检门,武汉安检机,武汉金属探测器,武汉测温安检门,武汉X光行李安检机,武汉防爆罐,武汉车底安全检查,武汉液体探测仪,武汉安检防爆设备 | 艺术漆十大品牌_艺术涂料加盟代理_蒙太奇艺术涂料厂家品牌|艺术漆|微水泥|硅藻泥|乳胶漆 | 北京四合院出租,北京四合院出售,北京平房买卖 - 顺益兴四合院 | Trimos测长机_测高仪_TESA_mahr,WYLER水平仪,PWB对刀仪-德瑞华测量技术(苏州)有限公司 | 礼仪庆典公司,礼仪策划公司,庆典公司,演出公司,演艺公司,年会酒会,生日寿宴,动工仪式,开工仪式,奠基典礼,商务会议,竣工落成,乔迁揭牌,签约启动-东莞市开门红文化传媒有限公司 | 线材成型机,线材折弯机,线材成型机厂家,贝朗自动化设备有限公司1 | 丹佛斯压力传感器,WISE温度传感器,WISE压力开关,丹佛斯温度开关-上海力笙工业设备有限公司 | 南京试剂|化学试剂|分析试剂|实验试剂|cas号查询-专业60年试剂销售企业 | 齿轮减速机_齿轮减速电机-VEMT蜗轮蜗杆减速机马达生产厂家瓦玛特传动瑞环机电 | 骨密度仪-骨密度测定仪-超声骨密度仪-骨龄测定仪-天津开发区圣鸿医疗器械有限公司 | 沉降天平_沉降粒度仪_液体比重仪-上海方瑞仪器有限公司 | 免费网站网址收录网_海企优网站推荐平台 | 转子泵_凸轮泵_凸轮转子泵厂家-青岛罗德通用机械设备有限公司 | 低压载波电能表-单相导轨式电能表-华邦电力科技股份有限公司-智能物联网综合管理平台 | 软装设计-提供软装装饰和软装配饰及软装陈设的软装设计公司 | 网站建设-高端品牌网站设计制作一站式定制_杭州APP/微信小程序开发运营-鼎易科技 | 垃圾压缩设备_垃圾处理设备_智能移动式垃圾压缩设备--山东明莱环保设备有限公司 | 钢制拖链生产厂家-全封闭钢制拖链-能源钢铝拖链-工程塑料拖链-河北汉洋机械制造有限公司 | 加中寰球移民官网-美国移民公司,移民机构,移民中介,移民咨询,投资移民 | China plate rolling machine manufacturer,cone rolling machine-Saint Fighter | 邢台人才网_邢台招聘网_邢台123招聘【智达人才网】 | 河南档案架,档案密集架,手动密集架,河南密集架批发/报价 | 北京翻译公司_同传翻译_字幕翻译_合同翻译_英语陪同翻译_影视翻译_翻译盖章-译铭信息 | 广域铭岛Geega(际嘉)工业互联网平台-以数字科技引领行业跃迁 | 工业洗衣机_工业洗涤设备_上海力净工业洗衣机厂家-洗涤设备首页 bkzzy在职研究生网 - 在职研究生招生信息咨询平台 | 培训一点通 - 合肥驾校 - 合肥新亚驾校 - 合肥八一驾校 | 爆炸冲击传感器-无线遥测传感器-航天星百科 | 沟盖板_复合沟盖板厂_电力盖板_树脂雨水篦子-淄博拜斯特 | 上海电子秤厂家,电子秤厂家价格,上海吊秤厂家,吊秤供应价格-上海佳宜电子科技有限公司 | 球磨机,节能球磨机价格,水泥球磨机厂家,粉煤灰球磨机-吉宏机械制造有限公司 |