全球专业中文经管百科,由121,994位网友共同编写而成,共计436,015个条目

AIGC

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

(重定向自Generative AI)

AIGC(AI Generated Content)即人工智能生成内容,又称“生成式AI”(Generative AI),被认为是继专业生产内容(PGC)、用户生产内容(UGC)之后的新型内容创作方式。

目录

什么是AIGC

  互联网内容生产方式经历了PGC——UGC——AIGC的过程。PGC(Professionally Generated Content)是专业生产内容,如Web1.0和广电行业中专业人员生产的文字和视频,其特点是专业、内容质量有保证。UGC(User Generated Content)是用户生产内容,伴随Web2.0概念而产生,特点是用户可以自由上传内容,内容丰富。AIGC(AI Generated Content)是由AI生成的内容,其特点是自动化生产、高效。随着自然语言生成技术NLG和AI模型的成熟,AIGC逐渐受到大家的关注,目前已经可以自动生成文字、图片、音频、视频,甚至3D模型和代码。AIGC将极大的推动元宇宙的发展,元宇宙中大量的数字原生内容,需要由AI来帮助完成创作。

AIGC的商业化方向

  从融资角度来看,目前AIGC有3个商业化的方向:

  ◎第一个方向是通过AI生成文字,比如自动写邮件和广告营销文案,这要归功于OpenAI的GPT-3 AI语言模型,目前大多数AI生成文字类项目都使用该模型。

  ◎第二个方向是利用AI作图,主要技术是结合多模态神经语言模型CLIP和图像去躁扩散模型Diffusion,仅仅提供一些关键词描述就可以自动生成图片。

  ◎第三个方向是AIGC的底层技术模型开发,OPENAI和StableAI 是这个方向的龙头,也是融资金额最大的。

  预计接下来AIGC的热门方向可能是用AI生成视频和动画,这就看Meta、Google的AI视频模型能不能解决视频的连贯性和逻辑性问题,或其他公司提出更好的解决方案。

AIGC底层技术的突破

  底层技术的突破使AIGC商业落地成为可能,传统AI绘画技术采用生成对抗网络(GAN),但GAN生成的图片结果输出不稳定,分辨率低。直到2021年OpenaAI团队开源了其深度学习模型CLIP,以及今年7月出现的去躁扩散模型Diffusion,两者相互结合,让AI自动生成文字和图片的质量得到了质的提升。

  Diffusion是一种去噪扩散模型,工作原理是对图像逐步施加噪点,直至图像被破坏变成完全的噪点,然后再逆向学习从全噪点还原为原始图像的过程,而AI所看到的是全是噪点的画面如何一点点变清晰直到变成一幅画,通过这个逆向过程来学习如何作画。

  CLIP是 OpenAI 在 2021 年初发布的用于匹配文本和图像的神经网络模型,是近年来在多模态研究领域的杰出成果,它一方面对文字进行语言分析,另一方面对图形进行视觉分析,不断调整两个模型内部参数,达到文字和图像高度匹配的效果。

  在AI生成文字方面,目前AI已经可以作诗、写邮件、写广告、剧本和小说。在今年,采用AIGC技术的虚拟人度晓晓写作高考作文,在不到1分钟的时间,完成了40多篇文章,获得专家打分48分的成绩,击败了75%的考生。目前OpenAI的GPT-3模型是AI生成文字中最成熟的模型,最近有一些项目把GPT-3模型商业化,包括自动写邮件的OthersideAI,自动写广告文案的Copy.ai和Jasper.ai,在用户数量上突飞猛进,并获得了大笔的融资,就在11月16日知识管理和内容协作平台Notion也发布了其文字自动生成产品Notion AI,并开始Alpha版本测试,Notion AI也是基于GPT-3模型开发。

  在AI生成图片方面,今年AI作画水平突飞猛进,其背后的算法模型也在不断迭代,年初推出的Disco Diffusion只能生成粗糙的图片,4月OpenAI发布的DALL-E2代已经可以生成完整的人像和图片,到8月StabilityAI发布的Stable Diffusion模型取得质的突破,已经可以生成可以媲美专业画师的作品,生成图片的效率也从年初的数小时到现在的几分钟甚至数十秒。

  在AI生成音频方面,10月11日,AI播客Podcast.ai生成的一段关于乔布斯和美国知名主持人乔·罗根之间的20分钟访谈播客在科技圈广为流传,在播客中乔布斯谈到自己的大学时代、对计算机、工作状态和信仰的看法,整个播客听起来毫无违和感,基本做到以假乱真。

  在AI生成视频方面,目前AI生成视频的算法模型还未成熟,也还没出现一家独大的局面。9月底Meta公布了AI制作视频工具Make-A-Video,Google也紧接着发布了Imagen Video和Phenaki。Make-A-Video具有文字转视频、图片转视频、视频生成视频三种功能。仅仅通过文本描述,Phenaki就可以生成一段情节连贯的视频。10月9日B站上的UP主“秋之雪华”公布了全球首个AI绘图、AI配音的动画《夏末弥梦》的DEMO,其画面精美程度不输专业画师的作品。

  但PANews观看该DEMO后发现,动画中人物几乎是静态的,只是在场景切换时换了个另一张图,由此可以看出目前AI生成视频中动画的过度和连贯性技术还不是很成熟,因为AI生成视频需要多个AI模型来配合完成。

  从技术上看,视频是把多张图片有逻辑和连贯的组合在一起。由文字生成视频,首先要生成多张图片,然后还要把这些图片有逻辑和连贯性的组合起来,因此难度比文字生成图片高了很多,如果一旦像文字生成图片那样能够高效率的生成高品质视频,将对内短视频、影视、游戏、广告等内容生产行业带来重大影响,不仅提升视频制作的效率和成本,还能帮助设计师产生更多的灵感和创意,让视频内容行业变得更加丰富和繁荣。

  在AI生成3D方面,以往的“3D建模”需要利用三维制作软件通过虚拟三维空间构建出具有三维数据的模型,技术要求比较高,需要懂美术、熟悉3DMAX和Maya等软件,还需要大量的时间去人工绘制。但UC Berkeley 的几个博士后发表的论文神经辐射场技术(NeRF)可以把全景相机拍摄的视频自动渲染为3D场景,减少了人工3D建模的过程,NeRF技术在2020年的 ECCV (欧洲计算机视觉国际会议) 提出, 并在2021年的ACM(美国计算机协会)获了荣誉提名奖。著名VR科技博主Robert Scoble 7月在他的Twitter发布了这个视频,他用NeRF技术渲染Insta360全景相机所拍视频后得到的3D场景,效果令人惊叹,预计会有相关项目将NeRF技术进行商业落地尝试,对于这点非常值得期待。

AIGC的突破节点

  AI懂创作、会画画,可以说是人工智能的一个“跨越式”提升。虽然人工智能在生活中不断普及,比如我们习惯了机器代替人去搬运重物、制造精密的产品、完成复杂的计算等等。但是,如果人工智能更接近人,那就必须具备人类“创作”的能力。这就是AIGC的意义。

  AI能力的提升,并不是一蹴而就,而大部分则经历了“模型突破-大幅提升-规模化生产-遇到障碍-再模型突破-大幅提升”的循环发展。而要实现落地、走进人类生活,则必须具备“规模化生产”的能力,在资源消耗、学习门槛等方面大幅降低到平民化。

  比如以AI画画为例,则经历了三个关键节点:

  第一个节点,早期突破:2014年,对抗生成网络(GAN)诞生,真正“教会”AI自己画画。

  GAN包含两个模型,一个是生成网络G、一个是判别网络D。G负责把接收到的随机噪声生成图片,D则要判断这张图是G画的、还是现实世界就存在的。G、D互相博弈,能力也不断提升,而当D不再能判断出G生成的图片时,训练就达到了平衡。

  GAN的开创性在于,精巧地设计了一种“自监督学习”方式,跳出了以往监督学习需要大量标签数据的应用困境,可以广泛应用于图像生成、风格迁移、AI艺术和黑白老照片上色修复。

  但其缺陷也正来源于这一开创性:由于需要同步训练两个模型,GAN的稳定性较差,容易出现模式崩溃。以及另一个有趣的现象“海奥维提卡现象”(the helvetica scenario):如果G模型发现了一个能够骗过D模型的bug,它就会开始偷懒,一直用这张图片来欺骗D,导致整个平衡的无效。

  模型也会躺平,这鸡贼的特性,真是有人的风格。

  第二个节点,大幅提升:2020年,一篇关于扩散模型(Diffusion Model)的学术论文,大幅提升AI的画画水平。

  扩散模型的原理是“先增噪后降噪”。首先给现有的图像逐步施加高斯噪声,直到图像被完全破坏,然后再根据给定的高斯噪声,逆向逐步还原出原图。当模型训练完成后,输入一个随机的高斯噪声,便能“无中生有”出一张图像了。

  这样的设计大大降低了模型训练难度,突破了GAN模型的局限,在逼真的基础上兼具多样性,也就能够更快、更稳定的生成图片。

  扩散模型在AI业界的“起飞”源于2021年1月,Open AI基于此开发出DALL·E文字生成图片模型,能够生成接近真实生活但并不真实存在的图片,让AI业界震了三震。但由于在像素空间进行了大量计算,这一模型仍存在进程缓慢、内存消耗大的缺陷。

  第三个节点,批量生产:2022年夏天诞生的Stable Diffusion,让高大上的学术理论变得“接地气”。

  去年8月,Stability AI将扩散过程放到更低维度的潜空间(Latent Diffusion),从而开发出了Stable Diffusion模型。这个模型带来的提升,在于资源消耗大幅降低,消费级显卡就可以驱动的,可以操作也更为方便,普通人也可以体会到人工智能惊艳的创作能力。而且开发团队还把所有代码、模型和权重参数库都进行了开源,践行了Geek的共享精神、去中心化主义。

  门槛降低、效果提升,因此,大受欢迎。发布10天后,活跃数据达到了每天1700万张,如果都用A4纸打印出来叠一起,相当于一座52层高的大楼。

  共享,也是Stability AI的另一特色。在开源社区中,除了更小的内存和更快的速度,Stable Diffusion收获了更完善的指南与教程、共享提示词、新UI,也依靠集体的智慧,走进了Photoshop、Figma等经典软件,汇入创作者们的既有工作流中。可谓是,依靠群众、回馈群众。

  从技术实现突破、到技术提升、再到规模化降低门槛,AI创作能力也不断提升。2022年10月,美国一名男子用AI绘画工具Midjourney,生成了一幅名为《太空歌剧院》的作品,并获得了第一名。这引起了一波不小的争论,也终于形成了一条新赛道。于是,2022年以AI绘画为代表的各种生成式AI工具,如雨后春笋般疯狂冒尖,比如盗梦师、意间AI、6pen、novelAI等等。

  而在文本AI领域也是如此。如今大火的ChatGPT则是基于GPT3.5模型,已经迭代了4次。而对话一次的平均成本为0.01-0.2美元,也就是六毛到一块钱人民币,成本依然需要不断降低。但整体而言,无论画画、还是聊天,AI已经体现出智慧涌现。

参考文献

本条目对我有帮助18
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您认为本条目还有待完善,需要补充新内容或修改错误内容,请编辑条目投诉举报

本条目由以下用户参与贡献

陈cc,上任鹅陈,苦行者.

评论(共0条)

提示:评论内容为网友针对条目"AIGC"展开的讨论,与本站观点立场无关。

发表评论请文明上网,理性发言并遵守有关规定。

打开APP

以上内容根据网友推荐自动排序生成

官方社群
下载APP

闽公网安备 35020302032707号