时间限制:10000ms
单点时限:1000ms
内存限制:256MB
描述
There are N jobs to be finished. It takes a robot 1 hour to finish one job.

At the beginning you have only one robot. Luckily a robot may build more robots identical to itself. It takes a robot Q hours to build another robot.

So what is the minimum number of hours to finish N jobs?

Note two or more robots working on the same job or building the same robot won't accelerate the progress.

输入
The first line contains 2 integers, N and Q.

For 70% of the data, 1 <= N <= 1000000

For 100% of the data, 1 <= N <= 1000000000000, 1 <= Q <= 1000

输出
The minimum number of hours.

样例输入
10 1
样例输出
5

题意:开局只有一个机器人,每次都可以两种操作

1.一个机器人可以完成一个任务

2.复制自己

题解:贪心,要复制必须先全部复制完后再进行工作,直接暴力就可以了

#include <bits/stdc++.h>
using namespace std;
int main(){long long n,m, t, k, ans;cin>>n>>m;t = 2,k = 1;ans = n;while(t<n){ans = min(ans, k*m+n/t+(n%t==0?0:1));t = t*2;k++;}cout<<ans<<endl;return 0;
}

转载于:https://www.cnblogs.com/Noevon/p/7103315.html

hihocoder1498 Diligent Robots相关推荐

  1. HDU 6229 Wandering Robots 找规律+离散化

    题目链接:Wandering Robots 题解:先讲一下规律,对于每一个格子它可以从多少个地方来有一个值(可以从自己到自己),然后答案就是统计合法格子上的数与所有格子的数的比值 比如说样例的3 0格 ...

  2. 如何写网站的robots.txt和meta name robots的配置

    robots.txt基本介绍robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容. 当一个搜索机器人(有的叫搜索蜘 ...

  3. robots.txt文件的解析及过滤

    什么是robots.txt文件? robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎 ...

  4. Python爬虫小偏方:如何用robots.txt快速抓取网站?

    作者 | 王平,一个IT老码农,写Python十年有余,喜欢分享通过爬虫技术挣钱和Python开发经验. 来源 | 猿人学Python 在我抓取网站遇到瓶颈,想剑走偏锋去解决时,常常会先去看下该网站的 ...

  5. HDU 2300 Crashing Robots

    Crashing Robots 题意 模拟多个机器人在四个方向的移动,检测crash robot, crash wall, OK这些状态 这是个模拟题需要注意几点: 理解转变方向后移动多少米,和转动方 ...

  6. 【谷歌推网页爬虫新标准,开源robots.txt解析器】

    https://www.toutiao.com/a1638031116246019 [谷歌推网页爬虫新标准,开源robots.txt解析器] 对于接触过网络爬虫的人来说 robots.txt 绝不陌生 ...

  7. 模拟 POJ 2632 Crashing Robots

    题目地址:http://poj.org/problem?id=2632 1 /* 2 题意:几个机器人按照指示,逐个朝某个(指定)方向的直走,如果走过的路上有机器人则输出谁撞到:如果走出界了,输出谁出 ...

  8. Robots.txt和Robots META

    Robots Text File Robots.txt robots.txt是一套指示搜索引擎(蜘蛛)如何抓取你的网页内容的一张地图,他告诉蜘蛛哪些需要抓取,哪些不要抓取(当然,这只是针对那些遵守这个 ...

  9. 网站robots.txt探测工具Parsero

    网站robots.txt探测工具Parsero robots.txt文件是网站根目录下的一个文本文件.robots.txt是搜索引擎中访问网站的时候要查看的第一个文件.当搜索引擎访问一个站点时,它会首 ...

  10. 谷歌推网页爬虫新标准,开源robots.txt解析器

    鱼羊 发自 凹非寺  量子位 报道 | 公众号 QbitAI 对于接触过网络爬虫的人来说 robots.txt 绝不陌生,这一存放于网站根目录下的 ASCII 码文件标明了网站中哪些内容是可以抓取的, ...

最新文章

  1. 全球缺芯大潮中,以软代硬能否另辟蹊径?
  2. Nginx + FastCgi + Spawn-fcgi + c 的架构
  3. 【错误记录】Google Play 上架报错 ( 您还没有为此轨道选择任何国家或地区。至少要添加 1 个国家或地区才能发布此版本)
  4. 智能合约WASM语言 (1)概述
  5. spring 事务隔离级别和传播行为_Spring事务传播实战
  6. 这 6 个 Spring Boot 项目够经典
  7. JFreeChart项目实例
  8. ubuntu install redis/mongo
  9. 0459-Repeated Substring Pattern(重复的子字符串)
  10. tomcat 开启远程debug
  11. acl 服务器编程框架特点介绍
  12. 揭秘手机变手雷的四大病毒
  13. ​社交产品盈利方式产品模式设计案例
  14. PMP备考大全:经典题库(8月第4周)
  15. 撇开PUE,评估数据中心增长的真正环境影响
  16. 基于javaweb的自习室图书馆座位预约管理系统(java+ssm+jsp+easyui+mysql)
  17. 这么多大学,保证一志愿优先录取!
  18. 上面两点下面一个三角形_章勤琼:三角形内角和180该如何说明 ——小学数学中的合情推理和演绎推理...
  19. 写论文第一步——查文献的方法
  20. 关于色光三原色与颜料三原色

热门文章

  1. 1990年的图灵奖获得者-Fernando Jose Corbato
  2. 远程桌面连接(远程控制另一电脑)的详细步骤
  3. java blowfish 算法_Java Blowfish对称密钥加密算法的实现和加密案例
  4. /config.php,app/admin/config.php · 静水流深/wotuoquan - Gitee.com
  5. html图标命名,html 命名规范
  6. 模拟扑克牌花色:♠ ♥ ♦ ♣ * 牌号:A 2 3 4 5 6 7 8 9 10 J Q K * 大王、小王 * * 1.生成一副牌 * 2.然后发牌
  7. [杂记]就《10.30日华为HR体验官胡玲在心声论坛爆料内部HR腐败行为》有感
  8. Take-Two同意斥资127亿美元收购Zynga,或成史上最大游戏并购交易
  9. Android 最新所有框架
  10. 用计算机弹琴图纸,cad制作钢琴平面图的操作流程