博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
关于统计数据
阅读量:6694 次
发布时间:2019-06-25

本文共 1102 字,大约阅读时间需要 3 分钟。

一、关于Python操作mysql:

1.导入pyutil模块,这模块有很多常用的功能

from pyutil.program.db import DAL
def get_mysql_dal():       mysql_db_conf = Conf('配置文件的位置')       screenlock_dal = DAL(host=mysql_db_conf.host, port=mysql_db_conf.port, user=mysql_db_conf.user, passwd = "22",name=mysql_db_conf.name)       return mysql_dal

  2.之后用execute函数执行sql语句就OK了

          mysql_dal.excute(sql).fetchone()

  3.fetchone()只取出一个结果,fetchall()把结果全取出来。fetchone的结果就是一个值,可以判断是否为None。fetchall的结果会出来一个列表,列表元素是元组,元组元素取决于你的sql语句:

[(12, 3715231920, 'stay_page', 'click_headline'), (12, 3715231920, 'stats', ''), (14, 2679244993, 'detail', 'page_close_key')]

fetchall的结果不应该和None比较,因为都不会等于空,想要看sql有没查出东西,看 len(excute返回值)==0。

 4.这种操作好像不用涉及到关闭数据库的问题

二、关于hive

1.查询方式和sql基本类似,但是记住要先查看hive的分区,查询语句好像一定要加上所在的分区,比如按时间分区的,data=2017-06-06号一个分区,date=2017-06-07这样分。where语句要有所限定where date=20170606这样,要不然查不出来

2.show partitions 查看分区,hive写完sql语句后使用map-reduce执行,挺慢的,有一系列的语句可以多优化。

3.python操作hive数据库:百度吧

三、关于HDFS

1.常用的HDFS命令–一堆,自己找。

查看文件内容  hadoop fs -text /data/.../...../20170531/*|less

关于如何用python操作Hdfs文件,在用python写spark那边再说吧。

转载于:https://www.cnblogs.com/qingjiaowoyc/p/6986245.html

你可能感兴趣的文章
python学习第五天
查看>>
OO第三单元作业总结
查看>>
hibernate5.x版本org.hibernate.MappingException: Unknown entity问题
查看>>
Linux - Ubuntu下JDK配置
查看>>
Fiddler4无法抓取HttpWebRequest本地请求的解决办法
查看>>
liunx系统计划任务管理(at/crond调度)
查看>>
采药(洛谷简单dp背包问题)
查看>>
交换两个整数的三种方法
查看>>
洛谷3321 SDOI2015 序列统计
查看>>
jsp打印
查看>>
一个例子明白python函数作用域
查看>>
牛客网多线程程序执行结果选择题
查看>>
CSS那点事
查看>>
201706061056-简陋版jquery全局消息订阅
查看>>
初识 Burp Suite
查看>>
Java面试题总结(不定期更新)
查看>>
软件工程项目组Z.XML会议记录 2013/10/22
查看>>
linux每日命令(18):whereis命令
查看>>
discuz的安装
查看>>
[题解]UVA10801 Lift Hopping
查看>>