算力
出自 MBA智库百科(https://wiki.mbalib.com/)
算力(HashRate)
目录 |
算力(HashRate)又称“哈希率”。是比特币网络处理能力的度量单位。即为计算机(CPU)计算哈希函数输出的速度。比特币网络必须为了安全目的而进行密集的数学和加密相关操作。 例如,当网络达到10Th/s的哈希率时,意味着它可以每秒进行10万亿次计算。在通过“挖矿”得到比特币的过程中,我们需要找到其相应的解m,而对于任何一个六十四位的哈希值,要找到其解m,都没有固定算法,只能靠计算机随机的hash碰撞,而一个挖矿机每秒钟能做多少次hash碰撞,就是其“算力”的代表,单位写成hash/s,这就是所谓工作量证明机制POW(Proof Of Work)。
简单来说算力就是数据的计算能力。从日常生活中的极端天气预报、线上打车调度、外卖下单撮合、影视特效制作……到国家科研生产中的火箭轨道计算、大飞机飞行模拟、基因测序、宇宙演化模拟??都离不开算力的支持,正所谓“一切皆计算”。“一切皆计算”是数字经济的底层逻辑,数字经济的任何发展都建立在优化的算法和强大的计算速度上。算法和速度合成了所谓的计算力:将计算力融入企业,成就了数字化转型;将计算力融入智慧应用,成就了人工智能;将计算力结合大数据,成就了云计算;将计算力结合非对称加密算法,成就了区块链……[1]
通常,我们将算力分为两大类,分别是通用算力和专用算力。
大家应该都听说过,负责输出算力的芯片,就有分为通用芯片和专用芯片。像x86这样的CPU处理器芯片,就是通用芯片。它们能完成的算力任务是多样化的,灵活的,但是功耗更高。而专用芯片,主要是指FPGA和ASIC。
- FPGA,是可编程集成电路。它可以通过硬件编程来改变内部芯片的逻辑结构,但软件是深度定制的,执行专门任务。
- ASIC,是专用集成电路。顾名思义,它是为专业用途而定制的芯片,其绝大部分软件算法都固化于硅片。
ASIC能完成特定的运算功能,作用比较单一,不过能耗很低。FPGA,介于通用芯片和ASIC之间。
以比特币挖矿为例
以前,人们都是用PC(x86通用芯片)挖矿,后来越挖难度越大,算力不够。于是,开始使用显卡(GPU)去挖矿。再后来,显卡的能耗太高,挖出来的币值还抵不上电费,就开始采用FPGA和ASIC集群阵列挖矿。
在数据中心里,也对算力任务进行了对应划分,分为基础通用计算,以及HPC高性能计算(High-performance computing)。
HPC计算,又继续细分为三类:科学计算类:物理化学、气象环保、生命科学、石油勘探、天文探测等。
科学计算和工程计算大家应该都听说过,这些专业科研领域的数据产生量很大,对算力的要求极高。
以油气勘探为例。油气勘探,简单来说,就是给地表做CT。一个项目下来,原始数据往往超过100TB,甚至可能超过1个PB。如此巨大的数据量,需要海量的算力进行支撑。
算力的组成部分[2]
算力包括四个部分:
一是系统平台,用来存储和运算大数据;
二是中枢系统,用来协调数据和业务系统,直接体现着治理能力;
三是场景,用来协同跨部门合作的运用;
四是数据驾驶舱,直接体现数据治理能力和运用能力。
可见,算力作为大数据运算程序的能力,是多个功能运用所形成环世界的融合与累加。
- 1 kH / s =每秒1,000哈希
- 1 MH / s =每秒1,000,000次哈希。
- 1 GH / s =每秒1,000,000,000次哈希。
- 1 TH / s =每秒1,000,000,000,000次哈希。
- 1 PH / s =每秒1,000,000,000,000,000次哈希。
- 1 EH / s =每秒1,000,000,000,000,000,000次哈希。
算力为大数据的发展提供坚实的基础保障,大数据的爆发式增长,给现有算力提出了巨大挑战。互联网时代的大数据高速积累,全球数据总量几何式增长,现有的计算能力已经不能满足需求。据 IDC报告,全球信息数据90% 产生于最近几年。
并且到2020年,40% 左右的信息会被云计算服务商收存,其中1/3 的数据具有价值。因此算力的发展迫在眉睫,否则将会极大束缚人工智能的发展应用。我国在算力、算法方面与世界先进水平有较大差距。算力的核心在芯片。因此需要在算力领域加大研发投入,缩小甚至赶超与世界发达国家差距。
大数据是人工智能发展的基础保障,是人工智能这台机器高速运转的燃料。没有大数据的支撑,人工智能就没有了燃料,谈不上发展。算力是人工智能发展的技术保障,是人工智能发展的动力和引擎。二者都是人工智能密不可分的一部分。反过来,人工智能的发展和应用又会反过来提升大数据和算力的技术革新,提高大数据和算力的水平。三者相辅相成,融合发展,才是未来信息时代发展的潮流趋势。大家都非常熟悉 AlphaGo,之所以能战胜棋类顶尖高手,除了人工智能的深度学习 技术之外,大数据提供的一千多万棋谱才是它持续进步乃至几乎无懈可击的根源。在深度学习应用到人脸识别 之前,基于大数据的识别成功率只有93%,而深度学习和算法的更新,将人脸识别系统成功率提升到了97% 以上,为人脸识别的商业应用铺平了道路。
随着人工智能、大数据、算力的发展与融合,三者已经有机结合成了一个智能化整体,其内涵和外延趋于多样化,各个细分领域的应用也丰富叠加,你中有我,我中有你。人工智能与大数据、算力的区别与界限越来越模糊。现阶段,人工智能和大数据的应用已经渗透到工业、农业、医学、国防、经济、教育等各个领域,所产生的商业和社会价值几乎是无限量的。 云计算 随着人工智能和物联网的发展应用,也不再局限于存储和计算,已经成为各个行业发展变革的重要推动力。
总之,算力的发展为大数据发展提供坚实的技术保障,计算力和大数据的发展为人工智能发展提供技术支撑和基础原料,是人工智能突破性进步的核心所在。人工智能的进步又反过来给算力和大数据提供变革的推手。
AI人工智能是目前全社会重点关注的发展方向。不管是哪个领域,都在研究人工智能的应用和落地。
人工智能的三大核心要素,就是算力、算法和数据。
AI人工智能是一个算力大户,特别“吃”算力。在人工智能计算中,涉及较多的矩阵或向量的乘法和加法,专用性较高,所以不适合利用CPU进行计算。在现实应用中,人们主要用GPU和前面说的专用芯片进行计算。尤其是GPU,是目前AI算力的主力。
GPU虽然是图形处理器,但它的GPU核(逻辑运算单元)数量远超CPU, 适合把同样的指令流并行发送到众核上,采用不同的输入数据执行,从而完成图形处理或大数据处理中的海量简单操作。因此,GPU更合适处理计算密集型、高度并行化的计算任务(例如AI计算)。
这几年,因为人工智能计算的需求旺盛,国家还专门建设了很多智算中心,也就是专门进行智能计算的数据中心。
除了智算中心之外,现在还有很多超算中心。超算中心里面,放的都是“天河一号”这样的超级计算机,专门承担各种大规模科学计算和工程计算任务。
我们平时看到的数据中心,基本上都属于云计算数据中心。任务比较杂,基础通用计算和高性能计算都有,也有大量的异构计算(同时使用不同类型指令集的计算方式)。因为高性能计算的需求越来越多,所以专用计算芯片的比例正在逐步增加。
前几年逐渐开始流行起来的TPU、NPU和DPU等,其实都是专用芯片。
大家现在经常听说的“算力卸载”,其实不是删除算力,而是把很多计算任务(例如虚拟化、数据转发、压缩存储、加密解密等),从CPU转移到NPU、DPU等芯片上,减轻CPU的算力负担。
近年来,除了基础通用算力、智能算力、超算算力之外,科学界还出现了前沿算力的概念,主要包括量子计算、光子计算等,值得关注。
2022年6月,上海市通信管理局制定了《新型数据中心“算力浦江”行动计划(2022-2024年)》,力求通过构建以高性能算力为主的多元算力服务生态体系,依托上海新型互联网交换中心平台交换架构的独特性,先行先试,探索打造中国首个算力交易集中平台,全面支撑城市数字化转型,助力上海打造国际数字经济标杆城市。