英伟达专家带你低门槛、高效实现AI模型训练与部署英伟达CV公开课
图像识别技术是人工智能研究的一个重要分支,也是人们日常生活、工作中应用最广泛的AI技术之一。如车辆识别、人脸识别、体态识别等技术,广泛应用于智慧城市、交通、零售、文娱等领域。
图像识别也是机器人、无人驾驶等技术的重要基础,未来将具有更加广泛的应用领域。
但对于大部分AI开发者来说,图像识别从算法研究、模型训练到规模化的提供服务,所需卷入的资源和处理的流程非常之多。并且如何保证数据质量、提高推理速度、提升识别精度等都面临很多挑战。
那么,开发者如何才能减少模型训练、调优所需时间?如何降低数据收集、标注成本?如何便捷、大规模部署AI模型?
迁移学习便是一种重要方式。
英伟达迁移学习工具包—TLT3.0提供了AI/DL框架的现成接口,使开发者能够更快地构建模型,而不需要编码;可以降低大规模数据收集、标记的相关成本,并降低训练模型的消耗。NVIDIA开源软件Triton Inference Server能够简化AI模型在生产中的大规模部署,开发者可以利用任何框架(TensorFlow, TensorRT, PyTorch, ONNX,或自定义框架) 部署训练好的AI模型。
为了让更多AI开发者快速上手TLT工具包,量子位联合NVIDIA发起3期线上CV公开课,从理论到实践,通过实例展示搭建和部署车辆信息识别系统、(面部)情感识别系统、手势识别系统,带大家低门槛、快速学习AI模型的训练、加速与应用部署。
文末附报名方式,欢迎人工智能从业者、有AI开发需求的小伙伴报名参与。
课程亮点
降低门槛,初级开发者也能快速上手整合资源,降低数据收集、标注成本,简化部署流程快速搭建,提供AI/DL框架的现成接口,无需编码
课程介绍
第1期:快速搭建基于Python的车辆信息识别系统
利用最新的NVIDIA Transfer Learning Toolkit 3.0 和 Deepstream 快速搭建车辆信息识别系统。
时间:5月19日(周三),20:00-21:30
内容大纲:
- 介绍Transfer Learning Toolkit 3.0的最新特性
- 利用Transfer Learning Toolkit 丰富的预训练模型库,快速训练属于自己的模型
- 直接利用Transfer Learning Toolkit 的预训练模型和Deepstream部署您自己的应用
第2期:快速搭建情感识别系统
利用最新的NVIDIA Transfer Learning Toolkit 3.0和Triton搭建情感识别系统。
时间:6月2日(周三),20:00-21:30
内容大纲:
- NVIDIA Transfer Learning Toolkit 3.0 的最新特性
- NVIDIA Triton的最新特性
- 利用NGC快速搭建最新NVIDIA Transfer Learning Toolkit Inference Pipeline
- 利用Transfer Learning Toolkit 丰富的预训练模型库,快速训练属于自己的模型
- 利用Triton部署情感识别系统
第3期:快速搭建手势识别系统
利用最新的NVIDIA Transfer Learning Toolkit 3.0和Triton搭建手势识别系统。
时间:6月17日(周四),20:00-21:30
内容大纲:
- NVIDIA Transfer Learning Toolkit 3.0 的最新特性
- NVIDIA Triton的最新特性
- 利用Transfer Learning Toolkit 丰富的预训练模型库,快速训练属于自己的模型
- 利用Triton部署手势识别系统
主讲嘉宾
何琨(KEN HE),英伟达NVIDIA开发者社区经理,拥有多年的GPU开发经验和人工智能开发经验。在人工智能、计算机视觉、高性能计算领域曾经独立完成过多个项目,并且在机器人和无人机领域,有丰富的研发经验。曾针对图像识别,目标的检测与跟踪等方面完成多种解决方案,作为主要研发者参与GPU版气象模式GRAPES。
免费报名
本次CV公开课主要针对有AI开发需求的开发者,无论是0基础的新手,还是想快速训练部署AI模型的从业者,都会在本次课程中收获满满~
报名链接:英伟达x量子位 CV公开课
请先选择您要报名第几期课程哦~
—完—
根据这一研究结果显示,按照OpenAI采用的服务器成本衡量和计费方式,让一个LLM处理一句缅甸掸语的句子需要198个词元(tokens),但同样的句子用英语写则只需17个词元。据统计,简体中文的训练费用大约是英语的两倍,西班牙语是英语的1.5倍,而缅甸的掸语则是英语的15倍。词元通常是指语料中文字存在的最小单位,但它的具体指代则是多变的,既可以是字、也可以是分词结果的词。
由于AI业界目前会使用词元来代表通过OpenAI或其他厂商API访问大模型所需的计算成本,所以也就意味着牛津大学的这项研究表明,英语才是目前训练大模型最便宜的语言,其他语言的成本则要大得多。
那么为什么会造成这一现象呢?用中文本身相比于英文更加复杂来解释显然并不科学,毕竟现代语言学是欧洲创建起来的,甚至现代汉语的语法分析原理也脱胎于西方的语法分析原理。
汉藏语系的语法结构与印欧语系相去甚远,参照印欧的屈折型语法来看以汉语为代表的孤立型语法,当然会觉得复杂。然而,词元(tokens)是以OpenA视角里中的训练成本来定义的,不是以字符来划分。而且,英文单词间是存在空格的,对英文文本处理时可以通过空格来切分单词。然而中文词之间不存在天然地空格,并且中文词是由多个字构成的,所以对于中文文本处理之前首先要进行分词。
真正导致用英文训练AI大模型成本更低的原因,是OpenAI等厂商的分词算法与英文以外其他语言的语义理解技术不到位有关。以OpenAI为例,作为一家美国公司,其团队在训练大模型时必然会选择以英语语料为起点,标注人工的投入显然也是英语系最方便,毕竟这会直接影响到大模型训练的强度和产出,也是为什么他们选择的人工标注团队在肯尼亚,而后者作为英联邦国家,以英语为官方语言、且教育水平较高。
AI理解不同语言不是通过翻译,而是直接学习相关语言的文本。那么AI大模型使用不同语言的能力差别又从何而来呢?答案是不同语言语料的丰富程度。此前百度的文心一言在内测过程中出现文生图不符实际的情况,就曾有主流观点认为,这是由于中文自然语言处理领域缺乏高质量中文语料所导致的结果。
而语料则是AI大模型的基础,生成式AI的原理大概可以总结为,通过大量的语料库进行训练,再从各种类型的反馈中进行流畅的学习,并根据需要对反馈进行整理,以建立相应的模型,从而使得AI能够对人类的问题做出相应的回答和决策。AI大模型之所以比以往的AI产品表现得更聪明,单纯是因为语料规模更大,比如OpenAI的GPT-3就拥有1750亿的参数量。
力大砖飞其实是当下大模型的底层逻辑,在这种情况下,语料基本就决定了它们的上限。语料肯定是越多越好,但如今的事实,却是英文才是目前互联网世界中使用人群规模最大、使用频率最高的语言。在去年6月,W3Techs又一次发布的全球互联网网页统计报告中就显示,英语仍一骑绝尘,占比高达六成(63.6%)以上,俄语为第二名(7%),中文则仅有1.3%、排名第八。
如今国内市场的百模大战正如火如荼,无论是BAT这样的传统豪强,还是美团、字节跳动这样的新兴巨头,乃至科大讯飞等传统AI厂商都已入局。但提到AI大模型,似乎大家还英文训练AI大模型比中文更便宜,为什么会这样?