oracle having后面不能用max_用SQL GROUP BY语句,找出最强精灵宝可梦!

  • Post author:
  • Post category:其他


55c443c5e9e52eaf7c7d2cf08fc351c5.png

点击菜单栏“阅读打卡”

发现更多精彩和惊喜

本文转载自公众号“读芯术”(ID:AI_Discovery)

0e4e94c6be0fed4df7b9ff8dcd0739e7.png
图片来源:Unsplash/Jay

本文所涉及代码均可在GitHub中获取:https://github.com/rmacaraeg

知道如何在SQL内完成基础操作后(如果不知道,请阅读“Python SQL基础简介”,传送门:https://medium.com/better-programming/a-gentle-introduction-to-sql-basics-in-python-b137651ed1ff),就可以开始使用SQL提供的更多其他工具了。

GROUP BY语句是SQL中一个很实用的工具。有了它,就可以对数据进行深入研究,并使用一些函数将相同数据进行分组。

如果一栏中不同的行具有相同的值,这些行就会被放到一个单独的分组中。

使用GROUP BY语句要注意以下重要的三点:

1. GROUP BY 是与SELECT语句一起使用的。

2. 查询时,GROUP BY位于WHERE语句之后。

3. 查询时,GROUP BY置于ORDER BY语句之前(如果使用到ORDER BY)。

在了解这些基本规则以后,就可以打开笔记本电脑进行实操了!


设置

以下例子将使用Kaggle数据集(https://www.kaggle.com/abcsds/pokemon)中Pokémon游戏的数据。

b7908d30259c2e2f6272ad526cdce572.png
图片来源:
unsplash.com/@melvina

尽管使用游戏数据是为了给SQL增加趣味性,这些例子同样也非常适用于更加商业化的决策,比如按照年龄段,收入水平,地理位置等给人群进行分组。

首先导入所需的库,并在python中加载CSV文件。


import pandas as pd


import sqlite3cnx = sqlite3.connect(':memory:')csvfile = ('/Users/randy/Documents/GitHub/Pokemon-Stat-Predictor/Pokemon.csv') #Original datacolumns = ['#','name','type1','type2','total','hp','attack','defense',           'sp_atk','sp_def','speed','generation','legendary']#open the csv filedf = pd.read_csv(csvfile, names=columns, header=0

接下来,先清理数据,然后将其导入SQLite数据库(https://www.sqlite.org/):

#find NaN valuesnan_rows = df[df.isnull().T.any().T]nan_rows.head()

这一步将会找到所有空值并返回其中一部分(如果有的话)。

当所有空值都出现在type2一栏时,将所有空值都变成“none”。

#change all Type 2 NaN values to 'None':df['type2'] = df['type2'].fillna('none')

因为SQL对字符串很敏感(同一字符串大写与小写代表含义不同),所以要将所有字符都设置为小写形式。

#change all strings within the dataframe to lower casedf = df.astype(str).apply(lambda x: x.str.lower())

然后将其设置为一个SQL数据库。

#set the database for pokemondf.to_sql('pokemon', con=cnx, if_exists='append', index=False)#function for the SQL queries belowdef sql_query(query):    return pd.read_sql(query, cnx)

太棒了,接下来可以开始执行一些SQL语句!


GROUP BY的基本语法

GROUP BY函数的基本语法是:

SELECT column_name(s), function_name(column_name)FROM table_nameWHERE conditionGROUP BY column_name(s)ORDER BY column_name(s);function_name: SUM(), AVG(), MIN(), MAX(), COUNT().table_name: name of the table. In this example, there is only the pokemon tablecondition: condition used.

有了它,就可以重新组织和操作数据,以得到更好的分析。


简单的GROUP BY语句

如果只想得到Pokémon中能力最高的那个精灵的名称,类别与总能力值,可以以一个简单的MAX()查询开始:

query = '''SELECT name, type1, type2, MAX(total)FROM pokemonWHERE legendary = 'true';'''sql_query(query)

这个操作将输出超级Mewtwo X,一个同时具有精神与战斗属性,总能力值高达780的Pokémon。

但如果只想要了解type1种类下能力最强的Pokémon呢?GROUP BY语句在这时就展现出其用武之地了:

query = '''SELECT name, type1, type2, MAX(total)FROM pokemonWHERE legendary = 'true'GROUP BY type1;'''sql_query(query)

现在输出的就不只是一个Pokémon(超级Mewtwo X)了,而是14个传奇的小精灵。

SQL查询找到了所有传奇小Pokémon,并基于type1栏将它们分到了单独的组中。

Pokémon在被分到了暗系、龙系、电系、飞行系等不同的组后,SQL查询将返回每一个组中小Pokémon的名字、type1、type2与总能力值。


GROUP BY和HAVING语句

WHERE语句能给各栏加设条件,但如果想要给组加设条件呢?引入HAVING语句!

由于WHERE关键词不能用在聚合函数中,在此选用带有GROUP BY的HAVING语句。

可以用HAVING语句输入条件来决定哪一组将会成为最终结果的一部分。同样的, WHERE语句对聚合函数不起任何作用。所以如果想要加设条件,就要将HAVING语句用于聚合函数中。

HAVING语句的基本语法:

SELECT column_name(s)FROM table_nameWHERE conditionGROUP BY column_name(s)HAVING conditionORDER BY column_name(s);


带有HAVING语句的GROUP BY

77c7591a0796fd90897d590a14eb939b.png
图片来源:
unsplash.com/@jeshoots

如果想知道所有Pokémon的数量、type1、最小和最大总能力值与所有type1分组下小Pokémon的平均HP,且只包含那些总HP值高于4000的Pokémon组:

query = '''SELECT COUNT(name) as pokemon_count, type1, MIN(total), MAX(total), AVG(HP)FROM pokemonGROUP BY type1HAVING SUM(HP) > 4000;'''sql_query(query)

这有助于确定哪些小Pokémon组在其类别中具有最高的HP值,同时也能剔除事先设定好的HP小于4000的Pokémon组。

如果想从具有高HP值的小Pokémon里进行挑选,最好选择普通type1组,其中的小精灵具有最高平均HP值(77.28)且非常耐打。

HAVING语句真的有助于精简数据,并得出更有用更深刻的结果。

749d914c2b52e35c1edab6ad0d87d9c5.gif

371d2f2c719f5b605be925d46a91c3ba.png
6101a42091197137dcb833e646938b04.png

5da8ba474ce2a602a0d1f34c94f3addc.png
a2a42f153f5837c0527c55e26da066ef.png
100165a81356c1e9e04c2e79447630ac.png
e05c712be52170591c6aef2a65017808.png
fc2ac531726e8eedaeb850173a970152.png
dcd27e65afadd9e7756aea2358d74fbc.png



版权声明:本文为weixin_39597323原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。