1 Star 0 Fork 0

mr_nobody/py_crawler

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
文件
该仓库未声明开源许可证文件(LICENSE),使用请关注具体项目描述及其代码上游依赖。
克隆/下载
sql.py 1.12 KB
一键复制 编辑 原始数据 按行查看 历史
mr_nobody 提交于 2017-03-31 17:51 . 将图片连接保存到数据库
#!/usr/bin/python3
# coding: utf-8
"""
__title__ = ""
__author__ = "Hans"
__mtime__ = "2017/3/31 0031"
# code is far away from bugs with the god animal protecting
I love animals. They taste delicious.
┏┓ ┏┓
┏┛┻━━━┛┻┓
┃ ☃ ┃
┃ ┳┛ ┗┳ ┃
┃ ┻ ┃
┗━┓ ┏━┛
┃ ┗━━━┓
┃ 神兽保佑 ┣┓
┃ 永无BUG! ┏┛
┗┓┓┏━┳┓┏┛
┃┫┫ ┃┫┫
┗┻┛ ┗┻┛
"""
from sqlalchemy import Column, String, create_engine, Integer
from sqlalchemy.orm import sessionmaker
from sqlalchemy.ext.declarative import declarative_base
# 创建对象基类
Base = declarative_base()
# 定义Pic对象
class Pic(Base):
# 表的名字
__tablename__ = 'pic'
# 表结构
id = Column(Integer(), primary_key=True)
site = Column(String(100))
pic = Column(String(1000))
# 初始化数据库连接
engine = create_engine('mysql+mysqlconnector://root:root@localhost:3306/crawler')
# 创建DBSession 类型:
DBSession = sessionmaker(bind=engine)
# 创建session对象
session = DBSession()
result = session.query(Pic).filter(Pic.id==5).first()
print(result)
Loading...
马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
Python
1
https://gitee.com/mr_nobody/py_crawler.git
[email protected]:mr_nobody/py_crawler.git
mr_nobody
py_crawler
py_crawler
master

搜索帮助