AIGC创新峰会第二批嘉宾集结!大模型、AI芯片、创新应用玩家都来
3月24日,智能产业第一媒体智东西、人工智能与新兴科技知识分享平台智东西公开课将在北京发起主办GTIC 2023中国AIGC创新峰会,峰会将以AI新纪元创造新世界为主题,全方位聚焦ChatGPT引发的范式革命,全景式解构生成式AI开启的新世界。
上周,峰会公布了首批确认参会的5位嘉宾,他们分别是世界顶级AI科学家、自然语言处理领域代表性人物、澜舟科技创始人兼CEO周明;中国科学院自动化研究所大模型研究中心常务副主任王金桥;潞晨科技创始人、新加坡国立大学校长青年教授尤洋;前微软工程院副院长、竹间智能创始人兼CEO简仁贤;启明创投合伙人周志峰。
接下来,峰会将继续公布5位确认参会的重磅嘉宾,分别是北京智谱华章科技有限公司CEO张鹏,墨芯人工智能创始人兼CEO王维,计算美学(Nolibox)联合创始人黄晟昱,影谱集团董事、北京区总裁樊硕,北京硅心科技CTO郝逸洋。
前身为清华大学知识工程研究室的智谱华章,已正式发布千亿级参数大规模中英文预训练语言模型;主攻稀疏计算的AI芯片创企墨芯人工智能,其一张墨芯S30计算卡就能跑通GPT-3;成立仅2年的计算美学(Nolibox)已完成旗下AI Art平台产品画宇宙开发;影谱科技早在2018年就发布了基于生成式AI技术的AGC智能影像生产引擎;智能编程机器人研发商硅心科技旗下核心产品aiXcoder已经为华为、百度、中国航天、工商银行等20余家互联网、金融及航天领域企业提供服务。
包括他们在内,在GTIC 2023中国AIGC创新峰会上,20+位重量级嘉宾进行主题演讲和圆桌讨论,发表专业见解,后续我们将陆续揭晓参会嘉宾。
一、第二批参会嘉宾阵容公布
张鹏,北京智谱华章科技有限公司CEO。近年来,张鹏带领智谱团队不断攻关,充分发挥产学研结合的力量来实现数据和知识双轮驱动的下一代人工智能技术,包括大规模预训练模型、超大规模常识知识图谱、认知智能数字人,以及更精准的情报挖掘、推荐和决策支持等。王维,墨芯人工智能创始人&CEO,卡内基梅隆大学ECE硕士。王维是拥有近20年经验的硅谷芯片专家,曾任高通和英特尔核心架构师,是英特尔五代到十代CPU处理器的核心团队成员之一,参与开发的芯片累计量产超50亿片。
黄晟昱,计算美学(Nolibox)联合创始人,清华大学设计学博士生;人工智能设计领域的学者及创业者。先后入选2022福布斯亚洲30岁以下精英榜(30 Under 30)、2021福布斯中国30岁以下精英榜(30 Under 30)及2022胡润U30创业领袖,是2022世界青年发展论坛的青年代表及主题演讲人。他近年来负责了多项该领域重点科研课题及智能设计产品转化落地,入选清华大学未来学者奖获。他先后斩获iF、DIA、DFA等近20余项国内外顶级设计大奖,设计作品也曾受邀于国家博物馆,中国国际设计博物馆及米兰设计周展出。
影谱集团董事、北京区总裁樊硕,是业内知名的高层次技术管理人员,是面向机器视觉的视频编码(VCM)国际标准化工作组成员,也是国家标准计划《数字版权保护版权资源标识与描述》起草成员之一。同时还担任北京市智慧广电重点实验室、智能媒体计算联合实验室、智能影像生产实验室的负责人,牵头并负责国家文化和科技融合示范基地,并于2018年获得中国人工智能最高奖吴文俊奖,于2020年获得全国技术市场领域最高荣誉金桥奖。他曾就职于The WALTDisney Company(China)Ltd、Linfair Engineering(HK)Ltd等,有超过15年的技术研发及管理经验,在计算机视觉、计算机图形学、机器学习、深度学习、大数据等领域拥有多项发明专利。
郝逸洋,北京大学本科,早稻田大学硕士,毕业后任职微软北京创新工程部语音技术组;2018年离开微软联合创办北京硅心科技有限公司,作为CTO负责智能编程机器人aiXcoder的研发工作。
二、大会议程:4大专题论坛+巅峰对话
设置四大专题论坛:AIGC高峰论坛、大模型专题论坛、中国类ChatGPT专题论坛、AIGC应用创新专题论坛。
其中,AIGC高峰论坛将在上午进行。在Gartner 2022年重要战略技术趋势预测中,生成式AI占据首位,是最引人注目的人工智能技术之一;在Gartner 2022年人工智能成熟度曲线中,生成式AI预计即将在2-5年内进入成熟期,发展潜力与应用空间巨大。作为AIGC杀手级应用,ChatGPT不仅正开启自然语言交互新时代,也将加速生成式AI的全面爆发,引发新一轮产业革命,有望推动科技行业格局大洗牌。知名学者、大厂技术决策者、优秀创业者、顶级投资人将在AIGC高峰论坛进行报告和演讲,从不同视角分享对于AIGC新世界的探索进展、价值解构和未来展望。
大模型是推动人工智能从感知理解世界到生成创造世界跃迁的关键技术底座。在ChatGPT爆火之后,隐藏其后的大模型受到空前关注。炼大模型热潮在国内再度兴起。但是,一个大模型背后需要大数据、大算力以及强算法作为支持,训练大模型往往成本高昂且对技术要求极高。大模型专题论坛将邀请国内多个大模型开发企业、以及大模型工具链团队带来演讲。
ChatGPT不仅开启全球科技巨头之间的军备竞赛,在国内也掀起中国版ChatGPT争夺战,从大厂、独角兽、到退休大佬乃至普通创业者,纷纷入局。中国版ChatGPT如何做出差异化创新?行业版ChatGPT究竟有多大想象空间?国内推进类ChatGPT开源面临哪些挑战?在中国类ChatGPT专题论坛,将能找到答案。
去年9月,红杉资本发布文章《生成式AI:一个创造性的新世界》,从VC视角描绘出AIGC这一全新赛道蕴藏的巨大创新创业机会,并预言AIGC应用新浪潮将全面激发。在代码生成、文生图、视频生成等AIGC应用细分领域上,国内逐渐涌现出一些优秀团队。AIGC应用创新专题论坛将邀请这些团队进行经验分享。
ChatGPT在推出仅两个月后,于今年1月末月活用户突破1亿,成为史上用户增长速度最快的消费级应用。与此同时,ChatGPT也迅速点燃了微软与谷歌两大科技巨头之间的下一代搜索战火。
上周,ChatGPT再一次让科技圈和开发者为之兴奋。OpenAI宣布正式开放ChatGPT API接口,允许第三方开发者通过API将ChatGPT集成到应用和服务中。而且,ChatGPT API价格是OpenAI现有的GPT-3 API价格的十分之一。
视线回到国内,类ChatGPT产品开发热潮不断升温,且进展迅速。百度抢得先机,已经对外宣布计划于3月16日发布中国版ChatGPT文心一言。而腾讯的类ChatGPT对话式产品混元助手也在上周终于浮出水面。
ChatGPT在国内外的狂飙表现,接下来会如何掀起新一轮科技革命?对话将由智一科技联合创始人、智东西总编辑张国仁主持。
三、将开设小型AIGC创新展区
大会同期还将开设小型AIGC创新展区,参展企业将围绕大模型、算力、AIGC应用等多个方面,进行关键技术、产品及解决方案的展示。
展区位于酒店大宴会厅前厅,将面向开发者及用户开放,届时欢迎大家在参会当日进行参观和体验。
四、观众报名持续开放
GTIC 2023中国AIGC创新峰会将于2023年3月24日在北京金隅喜来登大酒店举办。大会的观众报名通道持续开放。
-
上一篇
数据来源:记者整理 图 杨靖制图
算力需求空前提升
寒武纪主营业务是各类云服务器、边缘计算设备、终端设备中人工智能芯片的研发、设计和销售,主要产品为云端智能芯片及加速卡、训练整机、边缘智能芯片及加速卡、处理器IP以及上述产品的配套基础系统软件,产品覆盖无人机、语音识别、智能驾驶、图像识别等多个领域。
在AIGC领域,具有超大规模、超多参数量的多模态大型神经网络将引领人工智能的深度发展,对于芯片的算力需求大幅度提升。以ChatGPT为例,其通过连接大量真实语料库来训练模型,需要大算力支持。
华泰证券研报显示,根据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3~4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。摩尔定律中,物理算力每18~24个月翻一倍。可见,AI深度学习正在逼近现有芯片的算力极限,也对芯片设计厂商提出了更高要求。
2022年6月30日,寒武纪披露定增计划,拟定增募资26.5亿元加码AI芯片等领域。据寒武纪2023年2月7日最新披露的《2022年向特定对象发行A股股票募集说明书(申报稿)》,募资金额有所缩水,降为16.7亿元,但募投项目投资总额不变。
根据寒武纪的安排,先进工艺平台用于突破研发具有更高能效、更高集成度等特性的高端智能芯片,缩短与国外顶尖企业之间的差距;稳定工艺平台用于为公司边缘智能芯片产品提供更为可控的开发周期、更为可靠的性能支撑、更为可控的制造成本。未来,公司将面向边缘端智能应用场景差异化的算力需求,提供不同算力档位的边缘芯片产品,以覆盖更多场景的边缘市场。
人工智能新兴场景依赖于下一代通用型智能处理器的强有力算力支持,在SoC架构、软硬件(算法-处理器)协同设计、处理器性能与功能验证等技术上根据人工智能新兴场景特点进行针对性开发与优化。
ChatGPT带火AIGC赛道AI芯片提供商寒武纪却面临大考
每经记者:张宝莲每经编辑:梁枭
-
下一篇
图1:ChatGPT访问数据统计(图源:SimilarWeb)
当然,不光是ChatGPT,近一段时间以来,全球科技巨头纷纷发布自己的大模型。北京时间5月11日,谷歌宣布推出最新大型语言模型PaLM 2,在部分任务上已经超越GPT-4;在中国市场,百度、360、阿里、华为、京东、腾讯等也都纷纷推出了自己的AI大模型。
访问量陡增的ChatGPT,加上纷至沓来的AI大模型,AIGC(人工智能生成内容)产业不仅带来检索效率和工作效率的提升,同时由于大模型需要大量的数据和算力进行训练和运行,并在使用过程中产生大量新的数据,因此对底层基础设备提出了更高的要求。
在数据传输方面,光通信行业市场调研机构Lightcounting曾在2021年时预测,800G光模块将从2025年底开始主导市场。如今,在GPT等大模型的带动下,这一节奏明显提前。市场消息显示,目前已经有云服务厂商开始集中测试和采购800G光模块,相关需求将在2023年下半年开始集中爆发。
800G以太网需求提前爆发
为什么头部云服务商如此重视800G以太网用以数据传输呢?
最直接的回答就是:为了应对数据大爆炸。就以AI大模型训练而言,公开数据显示,从GPT-1到GPT-3,模型的参数量从1.1亿个增长到了1750亿个。有传言称,GPT-4模型的参数达到5000亿个,甚至可能超过万亿规模。根据市场调查机构TrendForce的数据,如果以英伟达A100显卡的处理能力计算,GPT-3.5大模型需要2万块GPU来处理训练数据。
因此,在算力集群的超算中心里,先进芯片和先进算力之间并不是划等号的,算力芯片只是提供了算力,而要高效利用算力还需要依赖光模块、存储等芯片的支持。
AIGC引爆数据洪流,云服务商跑步进入800G以太网时代
数日前,SimilarWeb更新了一份关于聊天机器人ChatGPT访问数的数据统计。数据显示,2023年4月ChatGPT访问量再创新高,已经超过了必应、Duc