近日,社交媒体平台上流传着不少明星演员流利说外语的视频,其中郭德纲说英文相声、赵本山用一口纯正的伦敦腔接受采访的视频尤为引人注目。然而深扒得知,这些视频背后是AI技术推手。
令人惊讶的是,其与原视频相比,不仅声线和腔调与原版视频一致,甚至能够准确卡点、对口型,几乎与真人口述无异。
网友们的反应也极为热烈,有人直言“这真的是假的吗?”,有人称赞“简直毫无违和感”,还有人惊叹“这也太绝了”。这不禁让人感叹,AI技术在生成视频方面的应用已经达到了一个新的高度,让人们真假难辨。
令人惊艳的技术背后,其实是AIGC领域的飞速发展。目前,AIGC已经能够生成各种类型的内容和数据,包括文字、代码、图像、语音和视频等。随着技术的不断进步和算法的不断优化,AIGC在日常生活中的应用场景和商业模式被不断拓展,展现出巨大潜力。
然而,AIGC技术的实现离不开强大的算力支撑。算力如同AIGC的心脏,为AIGC技术从概念到实践提供了坚实的支撑,是模型训练和数据处理不可或缺的驱动力。随着AIGC的加速发展和模型规模的不断扩大,对算力的需求急剧增长。全球大模型赛道竞争愈演愈烈,算力供给的增速明显难以满足指数式爆发的需求,导致算力面临告急的困境。
作为中国领先的计算产品方案提供商和中国AI服务器TOP3,宝德计算积极学习和吸收业界先进的AI技术和产品,依托于二十多年的雄厚技术和经验,基于AI产业需求,推出了多样性的AI算力产品和解决方案,为算力告急困局解决燃眉之急。
为应对AIGC和大模型的AI算力困局,宝德积极携手产业合作伙伴,打磨先进的AI服务器,为大模型训练和推理夯实算力根基,赋能AIGC各类场景应用。
宝德AI加速服务器PR4910E支持10张GPU加速卡,并配置2颗身怀七大算力神器的第四代英特尔®至强®可扩展处理器,最大可达60核心,为大模型训练提供强有力的算力支撑。它具有13个PCIe x16 Gen5插槽,支持32个 DIMM / DDR5内存插槽,支持最新的400Gb ETH和NDR IB高速智能网卡,以及 GPU Direct RDMA,最多支持24个 NVMe SSD,而且采用CPU 直通设计,大幅降低 I/O 延迟,为大模型数据存储和传输提供高效可靠的保证。
宝德AI服务器PR8908WG,8U空间支持8颗OAM高速互联的Gaudi®2 AI加速器,每颗配置96GB HBM高速内存,GPU与 GPU 之间互联带宽达到400GB/s,提供2.1Tbps的P2P互联带宽,支持全互联拓扑,全面满足大模型训练的海量通信需求;它拥有32个DDR4 DIMM插槽,支持24块2.5英寸SAS/SATA热插拔硬盘位,采用 CPU 直通设计,降低 I/O 延迟;它支持200Gb ETH和HDR高速智能网卡,支持GPU Direct RDMA,完美满足AI集群和大模型应用。
加速AIGC应用落地,宝德AIGC方案释放AI价值
基于对市场的理解和对客户生成式AI多样性的计算需求,宝德推出了AIGC软硬一体化解决方案。该方案支持灵活定制,既可以集群部署也可以单机部署,满足不同客户的实际需求。其架构包含硬件层、平台层、服务层和应用层,通过智能化调度和资源管理,形成了一个高效、便捷的算力服务平台,为不同的行业客户提供可便捷获取的算力,释放AI价值,推动AIGC技术的广泛应用与落地。
在硬件层,宝德提供了x86和ARM架构的CPU/GPU/NPU/XPU等、涵盖AI训练服务器、AI推理服务器和AI边缘产品等多平台兼容,进行模型的高速训练、微调和高效推理。在硬件基础上,方案采用K8S进行集群资源管理(单机部署采用Docker)。
服务层则部署了众多先进的服务,如ChatGLM大模型推理服务、由GLM微调而来的行业大模型-宝德酒业大模型推理服务和宝德自研的嵌入数据仓库服务等。这些服务可以将行业数据转换为向量数据,存储到向量数据库中,并通过相似度匹配算法查询出相关内容交给大语言模型进行推理、LLM Functions服务,让大语言模型拥有调用后端接口的能力。
基于这一强大的技术和服务支撑,宝德进一步开发了多种AI应用,如聊德宝、AI客服和数字人等。这些应用广泛服务于行业大模型、智能语音助手、网络直播、线上教育和培训等领域,为各行业的数字化转型注入了新的活力。