并发编程总结: 一:操作系统 二:进程 三:线程 四:协程 ps; 注意知识

 一:操作系统   总结:   程序员无法把所有的硬件操作细节都了解到,管理这些硬件并且加以优化使用是非常繁琐的工作,  这个繁琐的工作就是操作系统来干的,有了他,程序员就从这些繁琐的工作中解脱了出来,  只需要考虑自己的应用软件的编写就可以了,应用软件直接使用操作系统提供的功能来间接使用硬件。   精简的说的话,操作系统就是一个协调、管理和控制计算机硬件资源和软件资源的控制程序

  细说的话,操作系统应该分成两部分功能   一:隐藏了丑陋的硬件调用接口,为应用程序员提供调用硬件资源的更好,更简单,更清晰的模型(系统调用接口)。    应用程序员有了这些接口后,就不用再考虑操作硬件的细节,专心开发自己的应用程序即可。    例如:操作系统提供了文件这个抽象概念,对文件的操作就是对磁盘的操作,     有了文件我们无需再去考虑关于磁盘的读写控制(比如控制磁盘转动,移动磁头读写数据等细节),   二:将应用程序对硬件资源的竞态请求变得有序化    例如:很多应用软件其实是共享一套计算机硬件,比方说有可能有三个应用程序同时需要申请打印机来输出内容,     那么a程序竞争到了打印机资源就打印,然后可能是b竞争到打印机资源,     也可能是c,这就导致了无序,打印机可能打印一段a的内容然后又去打印c...,     操作系统的一个功能就是将这种无序变得有序。  重点知识:    #一 操作系统的作用:     1:隐藏丑陋复杂的硬件接口,提供良好的抽象接口     2:管理、调度进程,并且将多个进程对硬件的竞争变得有序    #二 多道技术:     1.产生背景:针对单核,实现并发     ps:     现在的主机一般是多核,那么每个核都会利用多道技术     有4个cpu,运行于cpu1的某个程序遇到io阻塞,会等到io结束再重新调度,会被调度到4个     cpu中的任意一个,具体由操作系统调度算法决定。

     2.空间上的复用:如内存中同时有多道程序     3.时间上的复用:复用一个cpu的时间片        强调:遇到io切,占用cpu时间过长也切,核心在于切之前将进程的状态保存下来,这样       才能保证下次切换回来时,能基于上次切走的位置继续运行

 二:进程   进程:正在运行的程序,CPU最小的资源单位。(进程是活的,一个动态的,暂时的)    开启一个进程就会在内存中开辟一块内存空间,进程与进程之间相互独立,隔离。   程序:就是一堆代码,是一个静态概念,死的,永久的   ps:进程的调度:(我们要知道的有两个)      1,时间片轮转法        2,多级反馈队列

   1,进程的并行与并发     并行:是两者同时执行,即同时进行,例如两人赛跑,都在不停的往前跑     并发:看起来像同时进行,而实质是交替轮流进行,       并发的本质:切换+保存状态(也印证了多道技术中的时间复用的特点)

   2,程序运行的三种状态:     阻塞态:遇到IO操作,sleep,input,output,recv,等都是阻塞态     就绪态:等待运行     运行态:程序正在运行的状态

    针对任务的提交方式:      同步:就是一个任务等待另外一个任务的结果,期间不做任何事情,拿到结果再去进行下一步操作     异步:是一个任务不需要等待另一个任务的结果,去执行下一步操作,等有结果时再通过异步回调去执行下一步操作。

     同步:例子:例如在银行排队办业务;     异步:就像抽号后,用户可以去在一边休息,后者(等待别人通知)就是异步等待消息通知,    针对程序的状态:     阻塞:阻塞态     非阻塞:即就绪态和运行态   3,进程的创建    新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的。       在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。     对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。即在物理层面的隔离   4,退出进程:     1,单击×。2,正常退出,3出错退出。4,杀死进程(在cmd中输入 tasklist |findstr 进程名称;               taskkill /F /PID 进程号;)

   5,开启进程的两种方式:     1,第一种:     使用process模块创建进程      在一个python进程中开启子进程,start方法和并发效果

      import time      from multiprocessing import Process

      def f(name):       print('%s是子进程'% name)       time.sleep(1)       print('% s子进程结束了' % name)

      if __name__ == '__main__':       t = Process(target=f, args=('gan',))       t.start()       #t.join()          jion方法,等待子进程结束,在进行主进程代码       time.sleep(1)       print('主结束了')     2,第二种:       自己定义一个MyProcess类去继承Process,在初始化,       from multiprocessing import Process       import os       class MyProcess(Process):        def __init__(self,name):         super().__init__()   # 初始父类不传参数         self.name = name        def run(self):         print(os.getpid())      # 获取子进程号 三个进程号都不一样         print('%s在那条胡同,遇见一个...'% self.name)

       if __name__ == '__main__':       # windoss必须放在此条件下面        p1 = MyProcess('张三丰')   # 实例化参数进程对象        p2 = MyProcess('田七')        p3 = MyProcess('念奴娇')

        #p1.daemon= True   # 将p1设置为呆萌进程,必须再start()之前设置

        p1.start()     #start会自动调用run        p2.start()        p3.start()        p1.join()     # jion 将并发变为串行执行,保证数据安全        p2.join()        p3.join()        print('主')      ps:        1 p.start():启动进程,并调用该子进程中的p.run()        2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法         3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁       4 p.is_alive():如果p仍然运行,返回True       5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)

     3,进程对象其他方法:       1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置       2 p.name:进程的名称       3 p.pid:进程的pid       4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)       5 p.getpid()    获取子进程号       6 p.getppid()   获取父进程号       7 print(p.is_alive()) # 判断进程是否存活      结果为True     4,开启多个进程       from multiprocessing import Process       import os       def f(n):        print('子进程id',os.getpid(), '父进程id', os.getppid())        return n*n       if __name__ == '__main__':        print('主进程id')        p_list = []        for i in range(10):         p = Process(target=f, args=(i,))         p.start()         p_list.append(p)      多个进程同时运行(注意,子进程的执行顺序不是根据启动顺序决定的)        [p.join() for p in p_list]   # 列表推导式   join方法的应用        print('主')     5,多进程之间锁的使用      抢票案列:       #并发运行,效率高,但竞争写同一文件,数据写入错乱       from multiprocessing import Process,Lock       import random       def search():        dic=json.load(open('db'))        print('\033[43m剩余票数%s\033[0m' %dic['count'])       def get():        dic=json.load(open('db'))        time.sleep(random.random()) #模拟读数据的网络延迟        if dic['count'] >0:         dic['count']-=1         time.sleep(random.random()) #模拟写数据的网络延迟         json.dump(dic,open('db','w'))         print('\033[32m购票成功\033[0m')        else:         print('\033[31m购票失败\033[0m')       def task(lock):        search()        lock.acquire()      抢锁        get()        lock.release()      释放锁       if __name__ == '__main__':        lock = Lock()           #生成锁对象        for i in range(100): #模拟并发100个客户端抢票         p=Process(target=task,args=(lock,))         p.start()        #加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,         即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。        虽然可以用文件共享数据实现进程间通信,但问题是:        1.效率低(共享数据基于文件,而文件是硬盘上的数据)        2.需要自己加锁处理        #因此我们最好找寻一种解决方案能够兼顾:         1、效率高(多个进程共享一块内存的数据)         2、帮我们处理好锁问题。        这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。       IPC通信机制:队列和管道         队列和管道都是将数据存放于内存中        队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,        我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,        避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。     6,进程之间相互通信      1,队列:(先进先出)        ps: 进程之间相互通信是通过队列来实现的Queue  JinableQueue       队列:管道+锁   一般进程之间都是选择队列通信,自己手动加锁会出现死锁现象       管道:管道中的数据取完就完了       队列queu:        从队列中增加值,q.put()  但队列中的值满了时,向其中增值时,会处于等待,也可以说是阻塞        从队列中获取值,q.get()  但队列中的值取空时,向其中取值时,会处于等待,也可以说是阻塞        生成一个队列对象,q = Queue()        q.close()         关闭队列,防止队列中加入更多数据       下面三种方法只适合在单进程中使用:        q.qsize()         返回队列中目前项目的正确数量        q.empty()         如果调用此方法时 q为空,返回True。        q.full()         如果q已满,返回为True. 否则为Flase      队列案列:       from multiprocessing import Queue       q=Queue(3)   #半连接数       #put ,get ,put_nowait,get_nowait,full,empty       q.put(3)       q.put(3)       q.put(3)       # q.put(3)   # 如果队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。            # 如果队列中的数据一直不被取走,程序就会永远停在这里。       try:        q.put_nowait(3) # 可以使用put_nowait,如果队列满了不会阻塞,但是会因为队列满了而报错。       except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去,但是会丢掉这个消息。        print('队列已经满了')       # 因此,我们再放入数据之前,可以先看一下队列的状态,如果已经满了,就不继续put了。       print(q.full()) #满了       print(q.get())       print(q.get())       print(q.get())       # print(q.get()) # 同put方法一样,如果队列已经空了,那么继续取就会出现阻塞。       try:        q.get_nowait(3) # 可以使用get_nowait,如果队列满了不会阻塞,但是会因为没取到值而报错。       except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去。        print('队列已经空了')       print(q.empty()) #空了      2,进程利用队列:
         补充:              full(),  q.empty(),   q.get_nowait()  都不适用于多进程的情况下

        案列:  from multiprocessing import Process,Queue                  def scz(q):                   要把队列的对象传进来*****                      q.put('hello')                  def xfz(q):                      print(q.get())

                if __name__ == '__main__':                    q = Queue()                    p = Process(target=scz,args=(q,))                    p1 = Process(target=xfz,args=(q,))                    p.start()                    p1.start()        总结:两个进程之间通信,是通过队列来实现的,把 产生的数据放在队列中,让另一个进程提取                在这里要注意的是要把队列对象作为参数分别传给两个进程
     7, 生产者消费者模型:    生产者:生成或者制造数据的一方    消费者:处理数据的一方    问题:解决供需不平衡的问题,用到队列来处理            案列:(不能让阻塞在data = q.get()位置)        from multiprocessing import Process,JoinableQueue,Queue        import time        import random

        def scz(name,food,q):            for i in range(0,10):                data = ('%s生产了%s包子%s'% (name,food,i))                time.sleep(0.5)                q.put(data)                print(data)

        def xfz(name,q):            while True:                data = q.get()                if data == None: break    # 如果data为None,说明队列中的数据已被取完                print('%s 吃掉了%s包子'% (name,data))                time.sleep(random.random())                q.task_done()   # 告诉队列从队列中已取出一个数据,并且已经全部处理完毕,结束任务  *****

        if __name__ == '__main__':            # q = Queue()            q = JoinableQueue()      # *******            p = Process(target=scz, args=('111', '牛肉馅', q))            p1 = Process(target=scz, args=('盘龙', '白菜馅', q))            c = Process(target=xfz, args=('开门', q))            c1 = Process(target=xfz, args=('芝麻', q))            c.daemon = True            c1.daemon = True            p.start()            p1.start()

            c.start()            c1.start()            #这种方法太low了            # p.join()    # 确保生产者确确实实生产完了            # p1.join()   #  确保生产者确确实实生产完了            # q.put(None)   # 生产者生产完在队列增加一个值  None, 当取值取到None时说明队列中的数据取完了            # q.put(None)    # 一个消费者用一个None,两个消费者就得用两个None ,一个消费者只要接受到none,立马结束!            # 高级方法            p.join()    # 确保生产者确确实实生产完了            p1.join()

            q.join()   # 等到队列中的数据全部被取出           8,进程池与异步回调:*******

转载于:https://www.cnblogs.com/Fzhiyuan/p/11373811.html

并发编程总结一,进程相关推荐

  1. python并发编程之semaphore(信号量)_python 之 并发编程(守护进程、互斥锁、IPC通信机制)...

    9.5 守护进程 主进程创建守护进程 其一:守护进程会在主进程代码执行结束后就立即终止 其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic process ...

  2. Python3 与 C# 并发编程之~进程先导篇

    在线预览:http://github.lesschina.com/python/base/concurrency/1.并发编程-进程先导篇.html Python3 与 C# 并发编程之- 进程篇:h ...

  3. 并发编程之多进程进程进程

    Python 并发编程之多进程 1.1 multiprocessing 模块 Python 中的多线程无法利用多核资源,如果想要充分的使用多核 cpu 的资源,在 Python 中大部分情况需要使用多 ...

  4. Python3 与 C# 并发编程之~ 进程篇

    上次说了很多Linux下进程相关知识,这边不再复述,下面来说说Python的并发编程,如有错误欢迎提出- 如果遇到听不懂的可以看上一次的文章:https://www.cnblogs.com/dotne ...

  5. 学习日记0904并发编程socketserver模块 进程理论

    基于tcp的并发编程 服务端 import socketserverclass MyTCPLink(socketserver.BaseRequestHandler):def handle(self): ...

  6. python僵尸进程和孤儿进程_Python Web学习笔记之并发编程的孤儿进程与僵尸进程...

    1.前言 之前在看<unix环境高级编程>第八章进程时候,提到孤儿进程和僵尸进程,一直对这两个概念比较模糊.今天被人问到什么是孤儿进程和僵尸进程,会带来什么问题,怎么解决,我只停留在概念上 ...

  7. python线程池并发_python 并发编程多线程之进程池/线程池

    一.验证GIL锁的存在 Python在设计之初就考虑到要在主循环中,同时只有一个线程在执行.虽然 Python 解释器中可以"运行"多个线程,但在任意时刻只有一个线程在解释器中运行 ...

  8. 十四丶并发编程(线程 进程 协程)

    Yuan先生 知识预览 操作系统 回到顶部 操作系统 一 为什么要有操作系统? 现代计算机系统是由一个或者多个处理器,主存,磁盘,打印机,键盘,鼠标显示器,网络接口以及各种其他输入输出设备组成的复杂系 ...

  9. 并发编程6 锁进程队列

    1.进程的其他方法 2.验证进程空间隔离和守护进程 3.孤儿进程和僵尸进程 4.锁 for循环加join数据共享 5.进程队列的简单应用 6.通过队列实现进程间的通信 7.生产者消费者模型及Queue ...

  10. 【并发编程七】C++进程通信——套接字(socket)_80行代码实现一个聊天软件

    [并发编程七]进程通信--套接字(socket)_80行代码实现一个聊天软件 一.简介 二.相关知识介绍 1.winsock1.h.winsock2.h 2.如何使用ws2_32.dll 3.WSAS ...

最新文章

  1. Android TextView的一些小知识
  2. xtragrid 上移下移
  3. 浅析_tmain()与main()的区别
  4. 网站建设难?三个技巧来帮你!
  5. python 模拟浏览器下载文件-python爬虫:使用Selenium模拟浏览器行为
  6. 求解最大字段和的几种方法
  7. 设置IE安全并打开自动仿冒网站筛选器和IE安全设置
  8. BeyondCompare如何去掉时间戳的匹配(不比较时间)(没解决)
  9. 097实战 关于ETL的几种运行方式
  10. python文件打包发布(引用的包也可以加进来),打包出错解决了,运行出错解决了...
  11. oracle检查外键依赖,Oracle中检查外键是否有索引的SQL脚本分享
  12. github在线执行_什么是Github操作,如何自动执行测试和Slack通知?
  13. 表单嵌套问题的解决方法
  14. 斯坦福-随机图模型-week1.4_
  15. vc listview 大图标间距设置
  16. 从零基础入门Tensorflow2.0 ----八、39.5. gpu5
  17. 无需越狱手机,下载越狱版本IPA的方法
  18. 2022 年面向初学者的 10 大免费 3D 建模软件
  19. 硬盘显示驱动器中的光盘未被格式化的解决方法
  20. 后盾网php微博系统,后盾网thinkphp5.0 博客系统实现

热门文章

  1. No such file or dirctionary:/ufeff.....关于ufeff错误的解决办法
  2. Open-Set recognition会议记录
  3. idea--Project Structure
  4. xampp 配置虚拟主机
  5. Tree树 递归查询,显示成JSON格式
  6. OpenJDK9 Hotspot :Zero 解释器 - BytecodeInterpreter
  7. JAVA学习:maven开发环境快速搭建
  8. async/await剖析
  9. 启动VMware中的虚拟机,报.vmdk”或它所依赖的某个快照磁盘
  10. 开放防火墙/26ip段_在5个不同国家/地区采用开放硬件设计的电子产品