潭州课堂25班:Ph201805201 mongo数据 库 第八课 (课堂笔记)
mongo 进入数据库,
exit 退出
show dbs 查数据库
db.createCollection('stu') 创建一个集合,
> use binbin
switched to db binbin
> db.createCollection('stu')
{ "ok" : 1 }
> show dbs
admin (empty)
binbin 0.078GB
local 0.078GB
在 use binbin 时,是伊娃并进入该数据库,
只有该数据库中有数据时 show dbs 才可以查看到该库,
show collections 查看所有集合,
db.dropDatabaes 删除库 (在哪个库中,就会产出哪个库)
db.stu.drop 删除集合, stu 集合名字
db.stu.insert({name:'bin',age:20}) 插入一条数据
db.stu.insert([{sex:'boy'},{addr:'aaa'}]) 插入多条数据
> db.stu.insert([{sex:'boy'},{addr:'aaa'}])
BulkWriteResult({
"writeErrors" : [ ],
"writeConcernErrors" : [ ],
"nInserted" : 2,
"nUpserted" : 0,
"nMatched" : 0,
"nModified" : 0,
"nRemoved" : 0,
"upserted" : [ ]
})
db.stu. find() 查询
id,可以自己定
db.stu. find({name:'bin'}) 条件查询
db.stu. find().pretty() 查询
db.stu.update({name:'bin'},{xx:'yy'}) 全文档更新
db.stu.update({name2:'bin'},{$set:{name:'aaaa',age:22}}) 指定更新
db.stu.update({name2:'bin'},{$set:{name:'aaaa',age:22}},{multi:true}) 把符合条件的都更新
db.stu.remove({name2:'bin'}) 删除
> db.stu.remove({name2:'bin'},{justone:true}) 把第一条符合条件 的产出
利用 python 操作 mongo
import pymongo
# -*- coding: utf-8 -*- # @Time : 2018/7/10 0010 21:49import pymongo # 建立连接clint = pymongo.MongoClient('127.0.0.1',27017,)db = clint['binbin'] # 连接数据库cl = db['stu'] # 连接要操作集合 data = cl.find() # 插入一条数据# cl.insert_one({'name3':'bb','age':22,'addr':'abc'}) # 插入多条数据cl.insert_many([{'name4':'bn'},{'name5':'ii'}]) # insert_one # insert_many # update_one # update_many # delete_one # delete_many # find_one # find # 把查询结果打印在控制台m = db.stu.find()print(m)for i in m: print(i)
转载于:https://www.cnblogs.com/gdwz922/p/9293715.html
潭州课堂25班:Ph201805201 mongo数据 库 第八课 (课堂笔记)相关推荐
- 潭州课堂25班:Ph201805201 WEB 之 Ajax第八课 (课堂笔记)
js <-->jq <!DOCTYPE html> <html lang="en"> <head><meta charset= ...
- 潭州课堂25班:Ph201805201 第十课 类的定义,属性和方法 (课堂笔记)
类的定义 共同属性,特征,方法者,可分为一类,并以名命之 class Abc: # class 定义类, 后面接类名 ( 规则 首字母大写 ) cls_name = '这个类的名字是Abc' # 在类 ...
- 潭州课堂25班:Ph201805201 爬虫基础 第一课 (课堂笔记)
爬虫的概念: 其实呢,爬虫更官方点的名字叫数据采集,英文一般称作spider,就是通过编程来全自动的从互联网上采集数据. 比如说搜索引擎就是一种爬虫. 爬虫需要做的就是模拟正常的网络请求,比如你在网站 ...
- c潭州课堂25班:Ph201805201 MySQL第二课 (课堂笔记)
mysql> create table tb_2( -> id int, -> name varchar(10) not null -> ); 插入数据 insert into ...
- 潭州课堂25班:Ph201805201 爬虫基础 第九课 图像处理- PIL (课堂笔记)
Python图像处理-Pillow 简介 Python传统的图像处理库PIL(Python Imaging Library ),可以说基本上是Python处理图像的标准库,功能强大,使用简单. 但是由 ...
- 潭州课堂25班:Ph201805201 django 项目 第三十九课 后台 文章发布,图片上传到 FastDFS后端实现 七牛云讲解(课堂笔记)...
文章发布: # 1,从前台获取参数# 2,校验参数# 3,把数据保存到数据库# 4,返回执行结果到前台,(创建成功或失败) 自定义 froms.py 校验参数 上传图片到七牛云 注册 https:// ...
- 潭州课堂25班:Ph201805201 django框架 第五课 自定义简单标签,包含标签,模型类创建,梳理类创建 (课堂笔记)...
自定义标签同自定义过渡器一样,要创建文件,在配置文件中以APP方法注册,对方法进注册,在 html 文件中引入,.. 由模板传参 在 在配置文件中改时区: 由视图函数传参 包含标签: 当有这种重复的代 ...
- 潭州课堂25班:Ph201805201 爬虫基础 第六课 选择器 (课堂笔记)
HTML解析库BeautifulSoup4 BeautifulSoup 是一个可以从HTML或XML文件中提取数据的Python库,它的使用方式相对于正则来说更加的简单方便,常常能够节省我们大量的时间 ...
- 潭州课堂25班:Ph201805201 tornado 项目 第八课 增加喜欢功能(课堂笔记)
tornado 相关说明 新增一个页面,用来做图片收藏, 还要在 account.py 创建一个数据库表,记录用户喜欢的图片,哪些图片用户疯狂传奇 cd 到 项目目录下,执行数据库更新 alembic ...
最新文章
- 如何交叉编译Python到ARM-Linux平台(转)
- Core禁用BIP70或只为制造闪电网络硬需求
- IR2104s半桥驱动使用经验
- Java的反射机制 工厂模式综合讲解【转载自51CTO】
- java基础英语---第二十一天
- [react-router] React-Router的<Link>标签和<a>标签有什么区别
- linux本地mysql与服务器同步数据_linux下指定mysql数据库服务器主从同步的配置实例...
- Android 系统(74)--Android重启原因分析
- C++_基础部分_C++文件操作_文件的写入操作---C++语言工作笔记076
- WdatePicker的一些用法
- 软件设计原则(四) 里氏替换原则
- Node.js nvshens图片批量下载爬虫 1.00
- 活学活用pic单片机c语言编程pdf,活学活用PIC单片机C语言编程
- 爬取mzi.com妹子图片网站(requests库)
- java语言的入门开始介绍
- 民间借贷、网贷vs信用卡
- 三轴加速度传感器和六轴惯性传感器_六轴传感器和三轴传感器的区别在哪
- 去水印小程序源码,全新界面无加密,平台支持微信小程序和QQ小程序。支持解析抖音、快手、皮皮虾和微视等平台。带PHP下载接口。支持微信QQ流量主
- 四月一个晴朗的早晨,遇见一个百分之百的女孩 作者:村上春树
- cubieboard 资源
热门文章
- Redis AOF日志
- ToG产品_产品发布说明书框架_2019_005
- 数位dp总结 之 从入门到模板
- STC15单片机-上位机通过Modbus-RTU协议与开发板通信
- Sql语句中的DDL语句
- 请输入要搜索的内容 搜索 13 转发 微博 Qzone 微信 看完这篇HTTP,跟面试官扯皮就没问题了
- “腾讯服务器每秒有2w个QQ号同时上线,找出5min内重新登入的qq号并打印出来。”
- css换行:实现固定文本整体换行
- BUUCTF basic BUU BURP COURSE 1 LFI Labs
- linux wifi连接上不能上网