hihocoder1498 Diligent Robots
时间限制:10000ms
单点时限:1000ms
内存限制:256MB
描述
There are N jobs to be finished. It takes a robot 1 hour to finish one job.
At the beginning you have only one robot. Luckily a robot may build more robots identical to itself. It takes a robot Q hours to build another robot.
So what is the minimum number of hours to finish N jobs?
Note two or more robots working on the same job or building the same robot won't accelerate the progress.
输入
The first line contains 2 integers, N and Q.
For 70% of the data, 1 <= N <= 1000000
For 100% of the data, 1 <= N <= 1000000000000, 1 <= Q <= 1000
输出
The minimum number of hours.
样例输入
10 1
样例输出
5
题意:开局只有一个机器人,每次都可以两种操作
1.一个机器人可以完成一个任务
2.复制自己
题解:贪心,要复制必须先全部复制完后再进行工作,直接暴力就可以了
#include <bits/stdc++.h> using namespace std; int main(){long long n,m, t, k, ans;cin>>n>>m;t = 2,k = 1;ans = n;while(t<n){ans = min(ans, k*m+n/t+(n%t==0?0:1));t = t*2;k++;}cout<<ans<<endl;return 0; }
转载于:https://www.cnblogs.com/Noevon/p/7103315.html
hihocoder1498 Diligent Robots相关推荐
- HDU 6229 Wandering Robots 找规律+离散化
题目链接:Wandering Robots 题解:先讲一下规律,对于每一个格子它可以从多少个地方来有一个值(可以从自己到自己),然后答案就是统计合法格子上的数与所有格子的数的比值 比如说样例的3 0格 ...
- 如何写网站的robots.txt和meta name robots的配置
robots.txt基本介绍robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容. 当一个搜索机器人(有的叫搜索蜘 ...
- robots.txt文件的解析及过滤
什么是robots.txt文件? robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎 ...
- Python爬虫小偏方:如何用robots.txt快速抓取网站?
作者 | 王平,一个IT老码农,写Python十年有余,喜欢分享通过爬虫技术挣钱和Python开发经验. 来源 | 猿人学Python 在我抓取网站遇到瓶颈,想剑走偏锋去解决时,常常会先去看下该网站的 ...
- HDU 2300 Crashing Robots
Crashing Robots 题意 模拟多个机器人在四个方向的移动,检测crash robot, crash wall, OK这些状态 这是个模拟题需要注意几点: 理解转变方向后移动多少米,和转动方 ...
- 【谷歌推网页爬虫新标准,开源robots.txt解析器】
https://www.toutiao.com/a1638031116246019 [谷歌推网页爬虫新标准,开源robots.txt解析器] 对于接触过网络爬虫的人来说 robots.txt 绝不陌生 ...
- 模拟 POJ 2632 Crashing Robots
题目地址:http://poj.org/problem?id=2632 1 /* 2 题意:几个机器人按照指示,逐个朝某个(指定)方向的直走,如果走过的路上有机器人则输出谁撞到:如果走出界了,输出谁出 ...
- Robots.txt和Robots META
Robots Text File Robots.txt robots.txt是一套指示搜索引擎(蜘蛛)如何抓取你的网页内容的一张地图,他告诉蜘蛛哪些需要抓取,哪些不要抓取(当然,这只是针对那些遵守这个 ...
- 网站robots.txt探测工具Parsero
网站robots.txt探测工具Parsero robots.txt文件是网站根目录下的一个文本文件.robots.txt是搜索引擎中访问网站的时候要查看的第一个文件.当搜索引擎访问一个站点时,它会首 ...
- 谷歌推网页爬虫新标准,开源robots.txt解析器
鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 对于接触过网络爬虫的人来说 robots.txt 绝不陌生,这一存放于网站根目录下的 ASCII 码文件标明了网站中哪些内容是可以抓取的, ...
最新文章
- 全球缺芯大潮中,以软代硬能否另辟蹊径?
- Nginx + FastCgi + Spawn-fcgi + c 的架构
- 【错误记录】Google Play 上架报错 ( 您还没有为此轨道选择任何国家或地区。至少要添加 1 个国家或地区才能发布此版本)
- 智能合约WASM语言 (1)概述
- spring 事务隔离级别和传播行为_Spring事务传播实战
- 这 6 个 Spring Boot 项目够经典
- JFreeChart项目实例
- ubuntu install redis/mongo
- 0459-Repeated Substring Pattern(重复的子字符串)
- tomcat 开启远程debug
- acl 服务器编程框架特点介绍
- 揭秘手机变手雷的四大病毒
- ​社交产品盈利方式产品模式设计案例
- PMP备考大全:经典题库(8月第4周)
- 撇开PUE,评估数据中心增长的真正环境影响
- 基于javaweb的自习室图书馆座位预约管理系统(java+ssm+jsp+easyui+mysql)
- 这么多大学,保证一志愿优先录取!
- 上面两点下面一个三角形_章勤琼:三角形内角和180该如何说明 ——小学数学中的合情推理和演绎推理...
- 写论文第一步——查文献的方法
- 关于色光三原色与颜料三原色
热门文章
- 1990年的图灵奖获得者-Fernando Jose Corbato
- 远程桌面连接(远程控制另一电脑)的详细步骤
- java blowfish 算法_Java Blowfish对称密钥加密算法的实现和加密案例
- /config.php,app/admin/config.php · 静水流深/wotuoquan - Gitee.com
- html图标命名,html 命名规范
- 模拟扑克牌花色:♠ ♥ ♦ ♣ * 牌号:A 2 3 4 5 6 7 8 9 10 J Q K * 大王、小王 * * 1.生成一副牌 * 2.然后发牌
- [杂记]就《10.30日华为HR体验官胡玲在心声论坛爆料内部HR腐败行为》有感
- Take-Two同意斥资127亿美元收购Zynga,或成史上最大游戏并购交易
- Android 最新所有框架
- 用计算机弹琴图纸,cad制作钢琴平面图的操作流程