点击上方“芋道源码”,选择“设为星标”

管她前浪,还是后浪?

能浪的浪,才是好浪!

每天 10:33 更新文章,每天掉亿点点头发...

源码精品专栏

  • 原创 | Java 2021 超神之路,很肝~

  • 中文详细注释的开源项目

  • RPC 框架 Dubbo 源码解析

  • 网络应用框架 Netty 源码解析

  • 消息中间件 RocketMQ 源码解析

  • 数据库中间件 Sharding-JDBC 和 MyCAT 源码解析

  • 作业调度中间件 Elastic-Job 源码解析

  • 分布式事务中间件 TCC-Transaction 源码解析

  • Eureka 和 Hystrix 源码解析

  • Java 并发源码

来源:c1n.cn/GM8hb

  • 场景说明

  • 模拟数据

  • 场景分析

  • 读取数据

  • 处理数据

    • 思路一:通过单线程处理

    • 思路二:分治法

  • 遇到的问题


场景说明

现有一个 10G 文件的数据,里面包含了 18-70 之间的整数,分别表示 18-70 岁的人群数量统计,假设年龄范围分布均匀,分别表示系统中所有用户的年龄数,找出重复次数最多的那个数,现有一台内存为 4G、2 核 CPU 的电脑,请写一个算法实现。

23,31,42,19,60,30,36,........

基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://gitee.com/zhijiantianya/ruoyi-vue-pro

  • 视频教程:https://doc.iocoder.cn/video/

模拟数据

Java 中一个整数占 4 个字节,模拟 10G 为 30 亿左右个数据, 采用追加模式写入 10G 数据到硬盘里。每 100 万个记录写一行,大概 4M 一行,10G 大概 2500 行数据。

package bigdata;import java.io.*;
import java.util.Random;/*** @Desc:* @Author: bingbing* @Date: 2022/5/4 0004 19:05*/
public class GenerateData {private static Random random = new Random();public static int generateRandomData(int start, int end) {return random.nextInt(end - start + 1) + start;}/*** 产生10G的 1-1000的数据在D盘*/public void generateData() throws IOException {File file = new File("D:\ User.dat");if (!file.exists()) {try {file.createNewFile();} catch (IOException e) {e.printStackTrace();}}int start = 18;int end = 70;long startTime = System.currentTimeMillis();BufferedWriter bos = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file, true)));for (long i = 1; i < Integer.MAX_VALUE * 1.7; i++) {String data = generateRandomData(start, end) + ",";bos.write(data);// 每100万条记录成一行,100万条数据大概4Mif (i % 1000000 == 0) {bos.write("\n");}}System.out.println("写入完成! 共花费时间:" + (System.currentTimeMillis() - startTime) / 1000 + " s");bos.close();}public static void main(String[] args) {GenerateData generateData = new GenerateData();try {generateData.generateData();} catch (IOException e) {e.printStackTrace();}}
}

上述代码调整参数执行 2 次,凑 10 个 G 的数据在 D 盘的 User.dat 文件里。

准备好 10G 数据后,接着写如何处理这些数据。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://gitee.com/zhijiantianya/yudao-cloud

  • 视频教程:https://doc.iocoder.cn/video/

场景分析

10G 的数据比当前拥有的运行内存大的多,不能全量加载到内存中读取,如果采用全量加载,那么内存会直接爆掉,只能按行读取,Java 中的 bufferedReader 的 readLine() 按行读取文件里的内容。

读取数据

首先我们写一个方法单线程读完这 30E 数据需要多少时间,每读 100 行打印一次:

private static void readData() throws IOException {BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(FILE_NAME), "utf-8"));String line;long start = System.currentTimeMillis();int count = 1;while ((line = br.readLine()) != null) {// 按行读取
//            SplitData.splitLine(line);if (count % 100 == 0) {System.out.println("读取100行,总耗时间: " + (System.currentTimeMillis() - start) / 1000 + " s");System.gc();}count++;}running = false;br.close();}

按行读完 10G 的数据大概 20 秒,基本每 100 行,1E 多数据花 1S,速度还挺快:

处理数据

思路一:通过单线程处理

通过单线程处理,初始化一个 countMap,key 为年龄,value 为出现的次数,将每行读取到的数据按照 "," 进行分割,然后获取到的每一项进行保存到 countMap 里,如果存在,那么值 key 的 value+1。

for (int i = start; i <= end; i++) {try {File subFile = new File(dir + "\" + i + ".dat");if (!file.exists()) {subFile.createNewFile();}countMap.computeIfAbsent(i + "", integer -> new AtomicInteger(0));} catch (FileNotFoundException e) {e.printStackTrace();} catch (IOException e) {e.printStackTrace();}}

单线程读取并统计 countMap:

public static void splitLine(String lineData) {String[] arr = lineData.split(",");for (String str : arr) {if (StringUtils.isEmpty(str)) {continue;}countMap.computeIfAbsent(str, s -> new AtomicInteger(0)).getAndIncrement();}}

通过比较找出年龄数最多的年龄并打印出来:

private static void findMostAge() {Integer targetValue = 0;String targetKey = null;Iterator<Map.Entry<String, AtomicInteger>> entrySetIterator = countMap.entrySet().iterator();while (entrySetIterator.hasNext()) {Map.Entry<String, AtomicInteger> entry = entrySetIterator.next();Integer value = entry.getValue().get();String key = entry.getKey();if (value > targetValue) {targetValue = value;targetKey = key;}}System.out.println("数量最多的年龄为:" + targetKey + "数量为:" + targetValue);}

完整代码:

package bigdata;import org.apache.commons.lang3.StringUtils;import java.io.*;
import java.util.*;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.atomic.AtomicInteger;/*** @Desc:* @Author: bingbing* @Date: 2022/5/4 0004 19:19* 单线程处理*/
public class HandleMaxRepeatProblem_v0 {public static final int start = 18;public static final int end = 70;public static final String dir = "D:\dataDir";public static final String FILE_NAME = "D:\ User.dat";/*** 统计数量*/private static Map<String, AtomicInteger> countMap = new ConcurrentHashMap<>();/*** 开启消费的标志*/private static volatile boolean startConsumer = false;/*** 消费者运行保证*/private static volatile boolean consumerRunning = true;/*** 按照 "," 分割数据,并写入到countMap里*/static class SplitData {public static void splitLine(String lineData) {String[] arr = lineData.split(",");for (String str : arr) {if (StringUtils.isEmpty(str)) {continue;}countMap.computeIfAbsent(str, s -> new AtomicInteger(0)).getAndIncrement();}}}/***  init map*/static {File file = new File(dir);if (!file.exists()) {file.mkdir();}for (int i = start; i <= end; i++) {try {File subFile = new File(dir + "\" + i + ".dat");if (!file.exists()) {subFile.createNewFile();}countMap.computeIfAbsent(i + "", integer -> new AtomicInteger(0));} catch (FileNotFoundException e) {e.printStackTrace();} catch (IOException e) {e.printStackTrace();}}}public static void main(String[] args) {new Thread(() -> {try {readData();} catch (IOException e) {e.printStackTrace();}}).start();}private static void readData() throws IOException {BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(FILE_NAME), "utf-8"));String line;long start = System.currentTimeMillis();int count = 1;while ((line = br.readLine()) != null) {// 按行读取,并向map里写入数据SplitData.splitLine(line);if (count % 100 == 0) {System.out.println("读取100行,总耗时间: " + (System.currentTimeMillis() - start) / 1000 + " s");try {Thread.sleep(1000L);} catch (InterruptedException e) {e.printStackTrace();}}count++;}findMostAge();br.close();}private static void findMostAge() {Integer targetValue = 0;String targetKey = null;Iterator<Map.Entry<String, AtomicInteger>> entrySetIterator = countMap.entrySet().iterator();while (entrySetIterator.hasNext()) {Map.Entry<String, AtomicInteger> entry = entrySetIterator.next();Integer value = entry.getValue().get();String key = entry.getKey();if (value > targetValue) {targetValue = value;targetKey = key;}}System.out.println("数量最多的年龄为:" + targetKey + "数量为:" + targetValue);}private static void clearTask() {// 清理,同时找出出现字符最大的数findMostAge();System.exit(-1);}}

测试结果: 总共花了 3 分钟读取完并统计完所有数据。

内存消耗为 2G-2.5G,CPU 利用率太低,只向上浮动了 20%-25% 之间:

要想提高 CPU 的利用率,那么可以使用多线程去处理。下面我们使用多线程去解决这个 CPU 利用率低的问题。

思路二:分治法

使用多线程去消费读取到的数据。采用生产者、消费者模式去消费数据,因为在读取的时候是比较快的,单线程的数据处理能力比较差,因此思路一的性能阻塞在取数据方,又是同步的,所以导致整个链路的性能会变的很差。

所谓分治法就是分而治之,也就是说将海量数据分割处理。根据 CPU 的能力初始化 n 个线程,每一个线程去消费一个队列,这样线程在消费的时候不会出现抢占队列的问题。

同时为了保证线程安全和生产者消费者模式的完整,采用阻塞队列,Java 中提供了 LinkedBlockingQueue 就是一个阻塞队列。

①初始化阻塞队列

使用 linkedList 创建一个阻塞队列列表:

private static List<LinkedBlockingQueue<String>> blockQueueLists = new LinkedList<>();

在 static 块里初始化阻塞队列的数量和单个阻塞队列的容量为 256,上面讲到了 30E 数据大概 2500 行,按行塞到队列里,20 个队列,那么每个队列 125 个,因此可以容量可以设计为 256 即可:

//每个队列容量为256for (int i = 0; i < threadNums; i++) {blockQueueLists.add(new LinkedBlockingQueue<>(256));}

②生产者

为了实现负载的功能, 首先定义一个 count 计数器,用来记录行数:

private static AtomicLong count = new AtomicLong(0);

按照行数来计算队列的下标:long index=count.get()%threadNums。

下面算法就实现了对队列列表中的队列进行轮询的投放:

static class SplitData {public static void splitLine(String lineData) {
//            System.out.println(lineData.length());String[] arr = lineData.split("\n");for (String str : arr) {if (StringUtils.isEmpty(str)) {continue;}long index = count.get() % threadNums;try {// 如果满了就阻塞blockQueueLists.get((int) index).put(str);} catch (InterruptedException e) {e.printStackTrace();}count.getAndIncrement();}}

③消费者

队列线程私有化: 消费方在启动线程的时候根据 index 去获取到指定的队列,这样就实现了队列的线程私有化。

private static void startConsumer() throws FileNotFoundException, UnsupportedEncodingException {//如果共用一个队列,那么线程不宜过多,容易出现抢占现象System.out.println("开始消费...");for (int i = 0; i < threadNums; i++) {final int index = i;// 每一个线程负责一个queue,这样不会出现线程抢占队列的情况。new Thread(() -> {while (consumerRunning) {startConsumer = true;try {String str = blockQueueLists.get(index).take();countNum(str);} catch (InterruptedException e) {e.printStackTrace();}}}).start();}}

多子线程分割字符串: 由于从队列中多到的字符串非常的庞大,如果又是用单线程调用 split(",") 去分割,那么性能同样会阻塞在这个地方。

// 按照arr的大小,运用多线程分割字符串private static void countNum(String str) {int[] arr = new int[2];arr[1] = str.length() / 3;
//        System.out.println("分割的字符串为start位置为:" + arr[0] + ",end位置为:" + arr[1]);for (int i = 0; i < 3; i++) {final String innerStr = SplitData.splitStr(str, arr);
//            System.out.println("分割的字符串为start位置为:" + arr[0] + ",end位置为:" + arr[1]);new Thread(() -> {String[] strArray = innerStr.split(",");for (String s : strArray) {countMap.computeIfAbsent(s, s1 -> new AtomicInteger(0)).getAndIncrement();}}).start();}}

分割字符串算法: 分割时从 0 开始,按照等分的原则,将字符串 n 等份,每一个线程分到一份。

用一个 arr 数组的 arr[0] 记录每次的分割开始位置,arr[1] 记录每次分割的结束位置,如果遇到的开始的字符不为 ",",那么就 startIndex-1,如果结束的位置不为 ",",那么将 endIndex 向后移一位。

如果 endIndex 超过了字符串的最大长度,那么就把最后一个字符赋值给 arr[1]。

/*** 按照 x坐标 来分割 字符串,如果切到的字符不为“,”, 那么把坐标向前或者向后移动一位。** @param line* @param arr  存放x1,x2坐标* @return*/public static String splitStr(String line, int[] arr) {int startIndex = arr[0];int endIndex = arr[1];char start = line.charAt(startIndex);char end = line.charAt(endIndex);if ((startIndex == 0 || start == ',') && end == ',') {arr[0] = endIndex + 1;arr[1] = arr[0] + line.length() / 3;if (arr[1] >= line.length()) {arr[1] = line.length() - 1;}return line.substring(startIndex, endIndex);}if (startIndex != 0 && start != ',') {startIndex = startIndex - 1;}if (end != ',') {endIndex = endIndex + 1;}arr[0] = startIndex;arr[1] = endIndex;if (arr[1] >= line.length()) {arr[1] = line.length() - 1;}return splitStr(line, arr);}

完整代码:

package bigdata;import cn.hutool.core.collection.CollectionUtil;
import org.apache.commons.lang3.StringUtils;import java.io.*;
import java.util.*;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.LinkedBlockingQueue;
import java.util.concurrent.atomic.AtomicInteger;
import java.util.concurrent.atomic.AtomicLong;
import java.util.concurrent.locks.ReentrantLock;/*** @Desc:* @Author: bingbing* @Date: 2022/5/4 0004 19:19* 多线程处理*/
public class HandleMaxRepeatProblem {public static final int start = 18;public static final int end = 70;public static final String dir = "D:\dataDir";public static final String FILE_NAME = "D:\ User.dat";private static final int threadNums = 20;/*** key 为年龄,  value为所有的行列表,使用队列*/private static Map<Integer, Vector<String>> valueMap = new ConcurrentHashMap<>();/*** 存放数据的队列*/private static List<LinkedBlockingQueue<String>> blockQueueLists = new LinkedList<>();/*** 统计数量*/private static Map<String, AtomicInteger> countMap = new ConcurrentHashMap<>();private static Map<Integer, ReentrantLock> lockMap = new ConcurrentHashMap<>();// 队列负载均衡private static AtomicLong count = new AtomicLong(0);/*** 开启消费的标志*/private static volatile boolean startConsumer = false;/*** 消费者运行保证*/private static volatile boolean consumerRunning = true;/*** 按照 "," 分割数据,并写入到文件里*/static class SplitData {public static void splitLine(String lineData) {
//            System.out.println(lineData.length());String[] arr = lineData.split("\n");for (String str : arr) {if (StringUtils.isEmpty(str)) {continue;}long index = count.get() % threadNums;try {// 如果满了就阻塞blockQueueLists.get((int) index).put(str);} catch (InterruptedException e) {e.printStackTrace();}count.getAndIncrement();}}/*** 按照 x坐标 来分割 字符串,如果切到的字符不为“,”, 那么把坐标向前或者向后移动一位。** @param line* @param arr  存放x1,x2坐标* @return*/public static String splitStr(String line, int[] arr) {int startIndex = arr[0];int endIndex = arr[1];char start = line.charAt(startIndex);char end = line.charAt(endIndex);if ((startIndex == 0 || start == ',') && end == ',') {arr[0] = endIndex + 1;arr[1] = arr[0] + line.length() / 3;if (arr[1] >= line.length()) {arr[1] = line.length() - 1;}return line.substring(startIndex, endIndex);}if (startIndex != 0 && start != ',') {startIndex = startIndex - 1;}if (end != ',') {endIndex = endIndex + 1;}arr[0] = startIndex;arr[1] = endIndex;if (arr[1] >= line.length()) {arr[1] = line.length() - 1;}return splitStr(line, arr);}public static void splitLine0(String lineData) {String[] arr = lineData.split(",");for (String str : arr) {if (StringUtils.isEmpty(str)) {continue;}int keyIndex = Integer.parseInt(str);ReentrantLock lock = lockMap.computeIfAbsent(keyIndex, lockMap -> new ReentrantLock());lock.lock();try {valueMap.get(keyIndex).add(str);} finally {lock.unlock();}//                boolean wait = true;
//                for (; ; ) {
//                    if (!lockMap.get(Integer.parseInt(str)).isLocked()) {
//                        wait = false;
//                        valueMap.computeIfAbsent(Integer.parseInt(str), integer -> new Vector<>()).add(str);
//                    }
//                    // 当前阻塞,直到释放锁
//                    if (!wait) {
//                        break;
//                    }
//                }}}}/***  init map*/static {File file = new File(dir);if (!file.exists()) {file.mkdir();}//每个队列容量为256for (int i = 0; i < threadNums; i++) {blockQueueLists.add(new LinkedBlockingQueue<>(256));}for (int i = start; i <= end; i++) {try {File subFile = new File(dir + "\" + i + ".dat");if (!file.exists()) {subFile.createNewFile();}countMap.computeIfAbsent(i + "", integer -> new AtomicInteger(0));
//                lockMap.computeIfAbsent(i, lock -> new ReentrantLock());} catch (FileNotFoundException e) {e.printStackTrace();} catch (IOException e) {e.printStackTrace();}}}public static void main(String[] args) {new Thread(() -> {try {// 读取数据readData();} catch (IOException e) {e.printStackTrace();}}).start();new Thread(() -> {try {// 开始消费startConsumer();} catch (FileNotFoundException e) {e.printStackTrace();} catch (UnsupportedEncodingException e) {e.printStackTrace();}}).start();new Thread(() -> {// 监控monitor();}).start();}/*** 每隔60s去检查栈是否为空*/private static void monitor() {AtomicInteger emptyNum = new AtomicInteger(0);while (consumerRunning) {try {Thread.sleep(10 * 1000);} catch (InterruptedException e) {e.printStackTrace();}if (startConsumer) {// 如果所有栈的大小都为0,那么终止进程AtomicInteger emptyCount = new AtomicInteger(0);for (int i = 0; i < threadNums; i++) {if (blockQueueLists.get(i).size() == 0) {emptyCount.getAndIncrement();}}if (emptyCount.get() == threadNums) {emptyNum.getAndIncrement();// 如果连续检查指定次数都为空,那么就停止消费if (emptyNum.get() > 12) {consumerRunning = false;System.out.println("消费结束...");try {clearTask();} catch (Exception e) {System.out.println(e.getCause());} finally {System.exit(-1);}}}}}}private static void readData() throws IOException {BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(FILE_NAME), "utf-8"));String line;long start = System.currentTimeMillis();int count = 1;while ((line = br.readLine()) != null) {// 按行读取,并向队列写入数据SplitData.splitLine(line);if (count % 100 == 0) {System.out.println("读取100行,总耗时间: " + (System.currentTimeMillis() - start) / 1000 + " s");try {Thread.sleep(1000L);System.gc();} catch (InterruptedException e) {e.printStackTrace();}}count++;}br.close();}private static void clearTask() {// 清理,同时找出出现字符最大的数Integer targetValue = 0;String targetKey = null;Iterator<Map.Entry<String, AtomicInteger>> entrySetIterator = countMap.entrySet().iterator();while (entrySetIterator.hasNext()) {Map.Entry<String, AtomicInteger> entry = entrySetIterator.next();Integer value = entry.getValue().get();String key = entry.getKey();if (value > targetValue) {targetValue = value;targetKey = key;}}System.out.println("数量最多的年龄为:" + targetKey + "数量为:" + targetValue);System.exit(-1);}/*** 使用linkedBlockQueue** @throws FileNotFoundException* @throws UnsupportedEncodingException*/private static void startConsumer() throws FileNotFoundException, UnsupportedEncodingException {//如果共用一个队列,那么线程不宜过多,容易出现抢占现象System.out.println("开始消费...");for (int i = 0; i < threadNums; i++) {final int index = i;// 每一个线程负责一个queue,这样不会出现线程抢占队列的情况。new Thread(() -> {while (consumerRunning) {startConsumer = true;try {String str = blockQueueLists.get(index).take();countNum(str);} catch (InterruptedException e) {e.printStackTrace();}}}).start();}}// 按照arr的大小,运用多线程分割字符串private static void countNum(String str) {int[] arr = new int[2];arr[1] = str.length() / 3;
//        System.out.println("分割的字符串为start位置为:" + arr[0] + ",end位置为:" + arr[1]);for (int i = 0; i < 3; i++) {final String innerStr = SplitData.splitStr(str, arr);
//            System.out.println("分割的字符串为start位置为:" + arr[0] + ",end位置为:" + arr[1]);new Thread(() -> {String[] strArray = innerStr.split(",");for (String s : strArray) {countMap.computeIfAbsent(s, s1 -> new AtomicInteger(0)).getAndIncrement();}}).start();}}/*** 后台线程去消费map里数据写入到各个文件里, 如果不消费,那么会将内存程爆*/private static void startConsumer0() throws FileNotFoundException, UnsupportedEncodingException {for (int i = start; i <= end; i++) {final int index = i;BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(dir + "\" + i + ".dat", false), "utf-8"));new Thread(() -> {int miss = 0;int countIndex = 0;while (true) {// 每隔100万打印一次int count = countMap.get(index).get();if (count > 1000000 * countIndex) {System.out.println(index + "岁年龄的个数为:" + countMap.get(index).get());countIndex += 1;}if (miss > 1000) {// 终止线程try {Thread.currentThread().interrupt();bw.close();} catch (IOException e) {}}if (Thread.currentThread().isInterrupted()) {break;}Vector<String> lines = valueMap.computeIfAbsent(index, vector -> new Vector<>());// 写入到文件里try {if (CollectionUtil.isEmpty(lines)) {miss++;Thread.sleep(1000);} else {// 100个一批if (lines.size() < 1000) {Thread.sleep(1000);continue;}// 1000个的时候开始处理ReentrantLock lock = lockMap.computeIfAbsent(index, lockIndex -> new ReentrantLock());lock.lock();try {Iterator<String> iterator = lines.iterator();StringBuilder sb = new StringBuilder();while (iterator.hasNext()) {sb.append(iterator.next());countMap.get(index).addAndGet(1);}try {bw.write(sb.toString());bw.flush();} catch (IOException e) {e.printStackTrace();}// 清除掉vectorvalueMap.put(index, new Vector<>());} finally {lock.unlock();}}} catch (InterruptedException e) {}}}).start();}}
}

测试结果:

内存和 CPU 初始占用大小:

启动后,运行时稳定在 11.7,CPU 稳定利用在 90% 以上。

总耗时由 180S 缩减到 103S,效率提升 75%,得到的结果也与单线程处理的一致!

遇到的问题

如果在运行了的时候,发现 GC 突然罢工了,开始不工作了,有可能是 JVM 的堆中存在的垃圾太多,没回收导致内存的突增。

解决方法:在读取一定数量后,可以让主线程暂停几秒,手动调用 GC。

提示:本 demo 的线程创建都是手动创建的,实际开发中使用的是线程池!



欢迎加入我的知识星球,一起探讨架构,交流源码。加入方式,长按下方二维码噢

已在知识星球更新源码解析如下:

最近更新《芋道 SpringBoot 2.X 入门》系列,已经 101 余篇,覆盖了 MyBatis、Redis、MongoDB、ES、分库分表、读写分离、SpringMVC、Webflux、权限、WebSocket、Dubbo、RabbitMQ、RocketMQ、Kafka、性能测试等等内容。

提供近 3W 行代码的 SpringBoot 示例,以及超 4W 行代码的电商微服务项目。

获取方式:点“在看”,关注公众号并回复 666 领取,更多内容陆续奉上。

文章有帮助的话,在看,转发吧。
谢谢支持哟 (*^__^*)

我用 Java 几分钟处理完 30亿 个数据...相关推荐

  1. 我用Java几分钟处理完30亿个数据...

    点击上方"Java基基",选择"设为星标" 做积极的人,而不是积极废人! 每天 14:00 更新文章,每天掉亿点点头发... 源码精品专栏 原创 | Java ...

  2. 美国AI公司30亿人脸数据被黑,遭科技巨头联合“封杀”

    整理&责编 | 夕颜 出品 | CSDN(CSDNnews) 近日,一家美国AI创业公司Clearview AI泄露客户超过30亿人脸数据的丑闻掀起轩然大波,人脸识别技术的安全性与隐私保护再度 ...

  3. 【历史上的今天】2 月 26 日:施乐 Alto 设计师出生;ATM 机获得专利;Clearview AI 被盗取 30 亿张照片

    整理 | 王启隆 透过「历史上的今天」,从过去看未来,从现在亦可以改变未来. 今天是 2022 年 2 月 26 日,在 17 年前,郭去疾随李开复归国,作为总裁特别助理帮助李开复平息了一场官司:从此 ...

  4. 这家公司窃取了30亿条个人信息,腾讯阿里百度无一幸免。

    不知道各位朋友有没有微博账号?如果有的话,八成会遇到一种情况.. 自动关注垃圾账号. 每次刷新鲜事的时候莫名奇妙出来一大堆不认识的账号,取消都要取消半天,取消多了每次还得输验证码,神烦. 去年的时候, ...

  5. java 时间取整 不满30分钟的算整点,大于30分钟的算30分钟

    java 时间取整 不满30分钟的算整点,大于30分钟的算30分钟 ```java public class Test { /** * @param args */ public static voi ...

  6. 3分钟看完 Day2 Keynote

    hey~ M姐又给大家带来了满满惊喜的 Build2016 Day 2 Keynote 干货汇总了. 如果你连昨天的都还不知道,那真心就 out 了.如果说信仰在昨天充值爆棚,今天就要充值信仰到掀翻房 ...

  7. JAVA在线观看视频教程完整版

    今天给大家介绍一下JAVA在线观看视频教程完整版,我们知道Java是一种可以撰写跨平台应用软件的面向对象的程序设计语言,是由Sun Microsystems公司于1995年5月推出的Java程序设计语 ...

  8. 花1分钟看完这篇文章,保证你立马学会微信公众号发文章!

    原标题:花1分钟看完这篇文章,保证你立马学会微信公众号发文章! 做微信公众号的不会发文章?我想这句话翻译过来应该是,如何发布一篇高质量的文章才对. 比如我在微信公众号发布一篇文章,直接就用微信公众号自 ...

  9. 这个AI能帮你快速搜监控:文字定位关键画面,24小时录像10分钟处理完

    来源:量子位 现如今,视频监控的存在帮助人们记录了许多过去难以查证的事实. 但想要在24小时不间断的监控里找到那么一两秒的"犯罪现场",依然是一件耗费人力的事. 有没有什么好办法快 ...

最新文章

  1. 哈佛CASTER | 基于化学子结构表征预测药物相互作用
  2. Microsoft Dynamics server 2015 所有的SQL server 2012 视图 介绍及功能
  3. Redis配置主从数据,实现主从库之间数据同步
  4. 【正一专栏】上港接过恒大的旗帜继续驰骋亚冠
  5. 算法----最大承载量下的最大价值问题
  6. 请谈下Android消息机制,复习指南
  7. 安装mysql5 1步骤_Linux系统安装MySQL详细步骤(mysql-5.1等)
  8. 深度学习:优化方法——momentum、Nesterov Momentum、AdaGrad、Adadelta、RMSprop、Adam
  9. win10安装python
  10. 软件汉化工具:eXeScope
  11. ADB命令行工具使用
  12. PTV-VISSIM交通仿真
  13. 新版UI千月影视盒子双端源码
  14. 黑苹果配置清单以及安装
  15. 程序员利用Python定时抓取微博评论
  16. codeblocks 汉化
  17. 计算机网络6版,计算机网络教程(第6版)
  18. springcloud服务假死
  19. CSS改变table内置tbody滚动条
  20. 统一社会信用代码=营业执照注册号 + 营业执照注册号+营业执照注册号

热门文章

  1. assert用法...
  2. 某大型保险集团在线财险业务系统数据库存储架构由集中式向分布式转型实践
  3. 中国电子垃圾市场前景风险预测与投资战略规划报告2022-2028年
  4. Chatgpt提升工作效率的7种用法
  5. 解决安卓微信video标签标签劫持
  6. 东软实训项目个人总结
  7. 创龙TI AM570x浮点DSP C66x + ARM Cortex-A15工业开发板规格书
  8. 什么是领导?什么是管理?这两者的区别,你一定要搞清楚
  9. dayz服务器物品代码,【遊戲本體內核心代碼修改】DayZ 有無控制臺刷物品指令、Or設定服務端刷物品MOD...
  10. [转帖]OEM、ODM、OBM分别是什么?