2024年初,77779193永利官网2005级戏剧影视文学专业校友祝上荣获AI创作领域重量级奖项“麻省理工学院全球AI影像黑客马拉松大赛最佳影片奖”,本月,学院有幸邀请祝上回到母校,为77779193永利官网编剧、广播电视文艺等专业方向的MFA同学开展了名为《AI时代:文学与爱》的讲座,祝上校友为大家分享了有关AI影像创作的经验以及自己对于行业未来发展和AI与文艺创作的理解。讲座全内容分享如下,干货满满,供大家学习。
大家好!很高兴蒙李胜利老师相邀,回校分享,这是我的荣幸。我之前为这个场合准备了很多物料,然而我后来又觉得回到学院的大家庭,我宣讲PPT,说些泛泛的信息,大家可能也不爱听。我在AI影像创作方面有一定实操经验,作为此领域的从业者,对于相关产业前沿和热点事件也有一些基于新知的理解,希望跟大家交流,聊聊这个冉冉升起的赛道,未来对大家可能产生哪些正面的影响。比如说Open AI近日推出的新系统Sora,或者前两天的AI春晚,我想知道大家对这方面是否有所了解,有什么问题想问?
我之前尝试过AI影像创作,感觉Runway这个工作流(workflow, 业务过程的部分或整体在计算机应用环境下的自动化),局限性还是挺大的,只能生成较简单的运动画面,我尝试后效果不是很好。我想求教您在创作过程中,有什么实用的方法和技巧吗?我还听说,当下有一些成熟的院线电影已经在使用AI影像,他们现在做到什么水平了?
同学的问题很好。我今天拟定的简单提纲,原本也打算从大热的Sora开始说起。AI 有很多不同的模态,Sora是一个视频模态AI。咱们现在正在进入一个大家尚未摸清、更谈不上熟悉的新时代,对于我而言,视频模态以及其他各种AI模态也是新事物。
在回答你的问题之前,我先补充一些和我个人相关的信息。我也曾是个立志成为编剧的少年,在影视创作领域也有过一些作品,2018、2019年这段时间,我个人感觉影视行业愈发遭遇到复杂的压力,行业面临行业转型的问题,而我面临个人转型的问题。当时,我暂时离开了这个行业,去欧洲求学,尝试一些新方向。我在欧洲学习期间,接触到了一门课,叫做AI in Management,讲的是管理学中的AI应用,有一套经典的AI应用体系。
目前我们看到的是基于“大模型”的生成实验,这项技术的暴发时间是2023年初,而我接触这个概念的时间要更早,当时国内还少有人谈论“大模型”。那时的AI专精某项技能,比如AlphaGo只会下棋。当大模型出现之后,尤其当Open AI的Transformer技术出现后,AI的应用范围变得更加广泛了。当下业界普遍认为,AI将会渗透到我们生活的每一个领域,此后人类的学习、研究和生产,都可能发生范式(paradigm)的巨大转变。
《我们的终结者2重置版》
(Our T2 Remake)号称全AI生成长片
(图片来自网络)
百度和微软的副总陆奇在2023年初曾做过一个演讲,提到了“新范式”三个字。我对于这方面也在学习中,一知半解,但我大概感觉到“新范式”可能会革新人类创意工作的方式。曾经,人类基于创意和主观能动性去创造一些内容,之后研判这个创造出的内容是否是我们想要的。未来,创意工作将是选择的过程,创造这件事交给机器,机器提供很多内容,我们需要想清楚自己想要什么,在机器提供的内容里做出选择。
更重要的,我后面会详细谈的一个问题是:我们需要去发挥内心深处对于文学的热爱,这是我们学习文学及艺术专业的人所特有的品质。在座的各位和既不从事也不特殊爱好文学艺术的人是很不一样的,我们内心深处有更多对世界的关照,更在意灵魂与灵魂的联结。
在未来,这些特质也许会是我们拥有的最宝贵财富,最重要的才能不是会剪辑,会应用软件,会使用工作流,这些技术层面的技能也许在未来反而不那么重要了,内容提供者最大的优势是对文学的了解和热爱。(注:这里的“文学”是广义的文学,并不仅仅指语言艺术,而是更广泛的人文内容与叙事)
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
回到同学问的工作流和AI模态问题,目前生成式AI已经掀起了两波热潮——一波是2023年初大模型生成式AI的横空出世,2024年初又一波,Open AI推出了Sora系统,让生成式AI的细分领域——视频模态AI,突然出现在大众面前。大家都在问:Sora到底能够做到什么?
我不知道在座有多少同学用过Midjourney或Runway这类视频/图片生成平台,有的同学在点头。如果用过的,你会知道它的强大之处,但目前这个工作流再强大,也仍然比不上传统影像技法。比如拍摄两个人打斗的场面,目前的AI生成技术很可能力不从心,存在很大局限。
我参加这次麻省理工学院AI影像黑客马拉松比赛的作品《万里星河千帐灯》(A Nostalgic Astronaut),在座同学可能看过。参加比赛时,我的竞争对手是来自全世界各地的AI视频模态应用高手,也有很多优秀的中国团队参与竞争 ,大家都必须面对AI视频在当前阶段的局限性。各团队使用的工具天花乱坠,什么都有,不只是简单的工作流,还会用到虚幻引擎(Unreal Engine)等工具。
最终我之所以能够获得这次比赛的最佳影片奖项,我获奖后简单复盘,我认为还是戏文专业给我打下的人文基础起到了重要作用。其他的团队构架了各种精密的视觉短片,但不见得比我会讲故事,不见得比我更擅长传递普世的人类情感,我在参赛创作的过程中,是从一个内容创作者的朴素角度出发的,不是为了展示技术而创作。
于是,我避开了一些AI现在做不到的事情,同时发扬光大一些AI现在能力所及的长处。当然,很多人表示当下的AI影像看上去很像PPT,动效很弱之类,但没有动效难道就不能讲故事吗?介绍给大家一个比赛——目前AI技术领域的龙头企业之一Runway Machine Learning举办的AI视频模态大赛Runway Gen:48。Runway ML总部设在纽约,每个季度都会举办一次全球大赛,Runway Gen:48的Gen,即“生成” (generation)缩写,48是要求在48小时内完成作品。这个大赛是AI视频模态领域的重要赛道,如今堪称AI界的短片奥斯卡,极度卷。今年这个季度,全球大概有1500个团队参加,要从中选出40个短片进入决赛。这个比赛从某种程度看比麻省理工的AI影像黑客松比赛还要卷。大家去B站搜索Runway Gen:48,能够看到很多获奖短片,可以了解一下。
(B站上能看到很多Runway Gen:48大赛作品)
AI当前技能
谷歌自带一个大模型,叫Gemini,以及微软的Copilot(Copilot基于OpenAI的技术打造),都是类似的AI产品。这涉及AI行业的产业版图问题,OpenAI和微软的关系,他们的竞争对手——英伟达(NVIDIA)和谷歌的捆绑,都有很多故事。可以说在大家不知道的地方,一场人类历史上最恢宏壮阔的科技战争正在发生着。It is happening.(笑)
关于AI目前能做什么,作为一个有操守的创作者,我从来不使用OpenAI工具来创作我的剧本。AI现在还没有达到人类的水平,它很聪明,能够帮你回答和解决一些实用的问题,比如ChatGPT用户圈子里有个社区叫做“实验编程”,社区里有很多高手,有的人用 ChatGPT 控制自己家中的电器,这种实用功能是完全可以做到的。但是要论达到在座各位的美学造诣,我认为它在很长时间里都达不到。我不建议大家使用AI创作你的剧本或其他作品的文案,但是,有时候,你可以要求它提供一些灵感。
我不是ChatGPT高手,我只使用一些很基本的功能,比如当我想写个科幻惊险小说,不知道现在从什么方向切入,我向 ChatGPT 提出了一些问题,请它给我点灵感。这种时候它可以在你背后踢你一脚,给你个原初的行动力,免得你在那里枯坐冥思苦想。
我给你们看看我给它提的问题,提醒大家,你首先要对人工智能进行prompting,要用语言激励它,这就是用自然语言进行编程的方式。我先对ChatGPT说:“你是现在世界上最好的惊悚片作家,你有这个能力,加油!”之后,我让它想象一个具体的场景,这个环节你要给ChatGPT特别具体的提示词,才可能得到想要的结果,这点可以做到。但是如果我想要ChatGPT围绕一个大的危机,构建这个故事中的人物弧光、主题思想……对于上述关键部分,ChatGPT暂时还做不到。但它至少可以提供一些实实在在的物料,如场景等,让你有空间发挥。
还是这个例子,我又给了ChatGPT一个前提,一个大的故事背景:2100年地球总统被刺杀,导致了一场危机,但不能是核危机,因为太烂俗了。规定了这些背景之后,ChatGPT给出了10种可能的情节走向,还很贴心地给故事起了个名字叫做《未来之阴影》(Shadow of the future),很帅气的名字,有好莱坞电影的感觉。
ChatGPT可以帮你写邮件,写说明性的文档,也可以给你一些看上去很荒诞的情节灵感,但是如果要讲述一个真正有意义的故事,向这个世界传递我们的灵魂,去跟他人的情感产生共鸣,在我看来现阶段AI还做不到。在这一点上,你们要多相信自己,去借助它而不是依赖它,让它成为你的工具。
祝上展示AI创作剧情
AI能为创作者提供哪些帮助?
看到Runway Gen:48比赛获奖短片,我们会有个普遍的共识,这些作品基本代表了AI影像目前取得的最高成果和智慧结晶,是“图生视频”工作流的最高水平。创作者们用这种看似幻灯片的画面去讲述他们想讲的故事,研究他们是怎样操作的,这对我们创作者意义重大,我个人感触尤深。
Gen:48大赛作品(图片来自网络)
身为内容创作者常有个困扰,心中的灵感和创意很难在业界复杂的环境中顺利实现。我本科学习戏文,深受其苦。大学时我和大学同学们住在梆子井1号楼,在那段很美好的青春岁月里,在学校夜半断电断网之后,一群精力过剩的年轻人聚在水房畅聊想到的故事,有人爱历史,喜三国,我则是个科幻迷,大家灵感碰撞,沉浸在创作故事的快感里。我们大家对创作是那么真诚,发自内心的热爱,好不容易上了大学学戏文,不用学高数(笑),于是想要在这个人文创作的赛道上好好发挥,写下自己的故事,想着如何用影像去实现。然而当怀抱梦想走出大学校门,却发现由于成本、条件等多种原因,并没有那么多机会将自己在故事和影像创作方面的抱负一一实现,这是个残酷的现实。
于是有的同学去拍摄成本可控的现实题材+写实质感的短片,参加电影节展,最终崭露头角获得更多机会,这是最初资源不足的创作者们较常走的路径。但如果是一直做编剧的同学,大部分时候你是为导演的意志服务,编剧这条路上有很多挑战和困难,可能你们中不少人会改行从事其他工作,但如果你坚持要走这条道路。也许AI影像可以让大家更有机会传达自己想讲的故事,当你们面临“灵感过剩”却无力实现的痛苦时,至少给你们提供一些情绪价值。(笑)
祝上AI影像获奖作品
当前视频模态的AI技术,实力的确不算强大,然而要想到,这项技术才刚刚诞生一年时间,在短短的一年里,作图平台迅速发展到了第6版。目前第6版所能实现的功能,相对需求仍然差强人意,但其发展之迅速是难以置信的,完成了很多此前不可想象的工作。全球各地的创作者们都视频模态的AI技术中得到了帮助,对整个内容创作生态有帮助,对个体创作者自身也有帮助,产生了许多优秀的影像文本。也许这项技术将来可能会成为一个独立的赛道,不同于传统影像作品的赛道,它可能会吸引更多人参与,包括平台方和创作生态环境中的各种从业者,大家尝试这个领域,取得更多的成就。
我们具体说Sora会给创作者带来什么,Sora技术目前给人们带来的心理影响,就像小说《三体》里的外星人给人类带来的影响,尽管从未见过三体人的面貌,但人类都知道问题很严重,集体无意识都被因此被改变。建议大家去尝试深入了解AI领域,很可能在不远的未来,无论你使用什么工具或设施,其中都会嵌入生成式AI模块,变得像使用手机APP一样普遍。
Sora文生视频示例剧照(图片来自网络)
但是,话说回来,有一些声音借着Sora的热度,称影视行业要被连根拔起,如今Sora能够一次性生成60秒的视频,也许未来许多影视工作者都将失业。趁机“割韭菜”的投机者很多,有人在Sora还未开放应用的情况下,就编造名头非法赚取好几千万。这种情况下,我们一定要保持清醒,最不需要做的就是“割韭菜”或“当韭菜”。目前在这个AI视频新技术生态的上升期,我们应该拨开云雾看本质。
Sora作为一个文生视频的模态,大家都还不了解,推测应该与使用Chat GPT时输入提示词的应用方式差不多,是通过提示词生成的视频。有相关领域达人拆解分析Sora生成的画面,推测Sora是使用极强算力,使用大量虚幻引擎(Unreal Engine)素材介入,训练出了一些物理规律,才能生成目前的效果。目前展现出的效果远远强于市面上的Runway等AI视频模态主流产品。
Sora文生视频示例剧照(图片来自网络)
大家现在可能想的是,我能不能试试Sora这个工具?目前还做不到,Sora作为OpenAI旗下产品,有一个产品测试的民间团队,叫做“红队”(Red Team)。想要加入这个红队,标准非常严苛,必须是美国居民,有美国境内的ID、美国银行卡、美国的机器码,一切都在美国境内,才有可能申请到加入红队的资格。
这引出了不久前英伟达(NVIDIA)CEO黄仁勋在AI大会上提到的问题——未来的AI主权和AI霸权问题(这个问题很重要,我们后面会说)。这不禁让人联想到,Sora目前可能还未达到真正成熟,但此时OpenAI迅速将这个产品发布出来,也许就是为了应对英伟达的产业链威胁,先展示一下自身实力强大到什么程度。
从务实的角度来说,虽然我们暂时还不能使用Sora进行尝试,但大家如果上过剪辑或制片方面的课程,可能也会感觉到,即便素材都有了,最后完成作品还是要依靠你的文学水平、剪辑功力,依靠你对故事的掌控力,将这些素材统合成一个有文学价值的、有一定美学解读空间的文本,对素材的这一步加工是必不可少的。未来的人类,按照现在悲观的预测,在智力方面会有所堕落(笑);但是在审美的角度,我不认为观众只满足于看人工智能生成的60秒长影像,影像的组合与选择还是要靠人来完成。
Sora文生视频示例剧照(图片来自网络)
我在参加麻省理工AI影像大赛时,遇到很多在机器学习、视觉研究和自媒体方面很有经验的团队,然而在彰显影片的文学性,用影像表达内心感受方面,这些团队的知识背景和我们有很大差距,这对比赛结果有非常大的影响。我对咱们中国传媒大学的基础美学教育印象深刻,美学教育在未来将会作为AI内容构建生态系统的基石,对此我充满信心。
现在各艺术院校都开始重视AI生成内容领域,在Sora出现之后,国家对新兴的生成式人工智能领域也会更加重视。我们很需要大力发展学研结合、产学结合,院校间的竞争也已经露出苗头,我们曾经与一个非常强大的队伍竞争并最终获胜,那支团队擅长点云技术和计算机视觉,是一支来自北电的队伍,反应迅速,非常厉害。
我们在大学学到的知识,一些很本真的人文学基础内容,包括文学知识、电影美学等等,在未来会成为AI创作的巨大助力,对整个AI影像行业生态也会起到良性的基础作用,即使是AI创作,也需要这些。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
Runway工作流程展示
许多人都对工作流程感兴趣,我简单演示一下。(祝上将一张教堂内景图片导入到Runway网站生成动态影像,生成需要一定时间)
在这个Runway平台界面中,只需点击开始生成按钮,就可以启动生成过程。Runway平台的价格较高,大约每月15美元,且每月只有几百秒的生成时间。如果需要更长的生成时间,需要购买额度之外的时间。我使用Runway是由于去年我在该平台组织的比赛中获得了全球第三名,官方赠送了我10万秒的时长,我基本上是用不完的(笑)。因此我倾向使用这个平台工具。不过Runway有平替,即刚才提到的PixVerse软件,这是国内产品,目前是免费的,大家可以尝试。
现在这张图片已经生成好了(教堂场景,摄影机从正对着圣坛的角度向前推进)。目前我只设置了一种摄影机运动,即向前推的效果,这个镜头的视觉和语言意义就是向大家展示教堂的内部环境,你可以看到它的粒子效果,在光效、技术上都是非常不错的。
我刚刚展示了将一张图片导入Runway网站进行处理、生成视频的过程。大家也可以发挥创造力,如果你有一些16: 9或4: 3比例的真实照片,你可以将它们免费导入到PixVerse软件中进行创作。我曾经使用PixVerse对我实拍的影像素材进行重新编辑,生成的效果和摄影装备完成的差不多,可控性稍低一些而已。国产PixVerse平台还在成长期,或许再过一两个月,三个月,就能达到Runway现在的动态效果水平,我估计PixVerse与Runway的技术差距大概在1.5到3个月左右,并不是特别大。
Midjourney文生图演示
AI影像技术与文化传播
祝上展示了一段他人创作的Runway Gen:48 获奖作品《LAPSE》
链接↓
https://www.bilibili.com/video/BV1PH4y1a7H2/?spm_id_from=333.337.search-card.all.click&vd_source=7f015768fc57a2e4ee2afbb5cf20206f
这个短片《LAPSE》是这次Runway Gen:48 48 大赛的入围影片,取得了best craft(最佳制作)奖项,参赛的很多片子都是有情节的,但这部片基本上是写意的,没有太多情节。技术方面,这部短片把现在典型的“从图到视频的工作流”发挥到比较极致的程度。不过,现在它也不是最厉害的,一些好莱坞的成熟的导演也开始进入AI影像领域,有了更多探索。
你如果要实现这样的效果,需要很强的本地算力作为支持,不然生成过程会非常慢。这类创作的原理是通过开源的 AI 软件stable diffusion,把我们现有的一些实拍视频变成有特定风格的运动影像。我们由此可以想象:如果实拍视频能够与 AI生成的这些过场戏、空镜等镜头风格保持一致,未来是否有可能用AI实现比较复杂的视听语言组合?
现在很多团队都在探索这方面的可能性,央视频与清华元宇宙实验室做了个类似的项目——《女娲》,开发相关的工作流程,这方面技术目前没有很严峻的壁垒。为什么清华元宇宙实验室有能力开发?其实如果拥有高性能显卡、建设几个算力集群,很快就可以做类似的项目,咱们学校也可以。如果资助者与学校合作,在技术层面提供相应条件,根据我们中传现有的美学基础教育和创作能力训练(比如编剧),完全可以尝试。
央视频AI微短剧《女娲》剧照
我给大家展示一下Runway其他典型工作流的一些片子,美国非裔导演Dave Clark的AI影像视频。
链接↓
https://www.bilibili.com/video/BV12C4y1C7k7/?spm_id_from=333.337.search-card.all.click&vd_source=7f015768fc57a2e4ee2afbb5cf20206f
比如这位导演,美国非裔导演Dave Clark创作的非裔题材作品,包含时间机器和科幻元素,这样的剧本在好莱坞大公司是不可能得到制片会通过并投拍的。好莱坞的大片厂不是不支持非裔题材,种族平权、政治正确的背景下,可以做非裔题材啊,但只支持商业化的针对非裔受众的喜剧、说唱电影,以及一些带有白人凝视色彩的非裔历史电影,如《底特律》《绿皮书》,最终仍是白人视角。哪怕《黑豹》在美国非裔社区很受欢迎,在影评人看来《黑豹》仍然存在强烈的种族凝视色彩。而身为非裔的Dave Clark很不愿意拍摄这样的电影。既然他想写的剧本在好莱坞很难通过,他干脆转换范式,把自己的创意做成了AI影片去参赛,如今Dave Clark已经成了各大广告公司炙手可热的红人,在这个领域完成了弯道超车。且Dave Clark的身份具有跨文化背景,父母分别来自非裔和亚裔,他将自己对于跨文化跨族裔的理解通过AI影像传递给世界,跳出好莱坞常规意识形态和生产模式的限制,这对于创作生态是非常有意义的。
Dave Clark AI影像作品剧照
我本人也尝试创作了《狂沙寻龙》(The Complex)这样一部作品。
我选择的故事发生在美国西进时期,在那个年代美国华裔跟非裔都是被欺凌的群体,我尝试创作了这个幻想故事,尝试把这两个群体通过某种符号连结在一起。这个短片可能看起来有点激进,有点cult,但他让我在AI影像的小圈子里交到了很多朋友,来自海内外各地,国外的一些朋友非常喜欢这部片,Dave Clark也和我有交流,理解并赞赏我用AI影像表达种族平等理念的尝试。
说到中国文化出海的问题,在传统媒介领域,很难用我们中国的特色观念去动摇世界上其他地区的意识形态惯性,这让我们的文化输出变得很困难。我出国后发现境外充满各种各样关于中国的不实信息和谣言,在这种情况下,如何将我们的文化介绍给其他地方的人,需要多元化、有深度的输出。不能让老外一看到中国面孔就只说中国菜很好吃,长城很壮观,这表面上是礼貌的夸奖,实际是一种文化凝视。
我刚接触到AI创作领域时,就想到这个问题,我发现这个媒介或许可以帮助我们绕开某些壁垒,直接与其他国家其他族群的社会主义核心价值观对话,尝试从某个角度动摇他们的话语体系,通过构建我们自己的文化生态和内容产品做到这一点。我一直努力对外安利中国科幻和中国科幻作者,但即使《流浪地球》这种已经在海外取得较好传播效果的电影产品,我的一些外国友人也表示难以理解。对于“拖走地球”这种大规模的基建想象,他们觉得是浪费人力。但我们也不能盲目敌视西方世界,西方不是铁板一块,不同地域和国家,北美和欧洲也不一样,存在多元化的传播空间。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
那么也许我们可以转化一下思路,他们在讨论种族、性别、平权等问题的时候,我们也可以尝试借用他们的角度去创作相关主题的作品,融入我们中国的视角和思考,在他们的主战场上给他们一点中国震撼。海外还是有很多人能够抱持公平的、就事论事的理性态度和我们探讨问题,看到我们的艺术表达,会觉得OK,能理解。我这部《狂沙寻龙》某种程度上也算是击穿了他们的认知系统壁垒,激发一种同理心,这让我感到我没有白做。用新技术去传播我们的文化,这是我想要去参与构建的新技术生态的一部分,当这个AI影像生态系统最终成熟的时候,也许我们会真正开辟出一条中国文化传播的新赛道,一条出海路径,比如影响一带一路国家,尝试重建全球化对话。
祝上AI影像作品《狂沙寻龙》剧照
世界局势的巨变和AI技术革命的巨变发生在同一时期,我们可以同时思考这两方面的问题,如何处理中国特色的价值观与西方价值观的差异,如何应对西方AI霸权。这两方面在内在是相通的,如果说我们目前在芯片等硬件领域的面对面竞争存在诸多困难,还需要积累,至少在构建技术生态方面以及应用层的创造方面,我们的文化精神如何参与到这个进程中,是大有可为的。
我们还可以看看日本的情况。
这个短片这是一个日本团队用 Runway 平台产出的作品。大家现在可以尝试使用一些主流的图生视频平台如美国的Runway、中国的Pika Art等网站创作类似的,如果想用自己实拍的照片去生成一些视频也没问题。Pika Art对于文生动漫视频的支持是很不错的。另外还有一个业内巨头叫做PixVerse,在我看来它是个正在冉冉升起的平台,增长势头迅猛,2023年 12 月的增长率达到了一个月300%。这个公司是中国本土公司,就在海淀,一个中国团队在运营。我个人是很希望在构建生态、创作者关系等方面与其多合作,帮助他们跟业界顶流Runway竞争,这对于我们中国创作者非常重要。之所以提到PixVerse,是因为大家普遍反映Runway对动漫风的支持欠佳,有很多空间可以竞争。
AI影像短片《Kaito》剧照
我一直提到“生态”,如今在很多创作者、行业研究者、开发者以及AI 爱好者、以及在各种不同AI模态领域努力的人们共同形成的合力下,AI创作和技术生态正在逐渐形成,我不敢说它会很快形成新的媒介赛道,我只是认为它有潜力。就像短视频平台快手、抖音,你之前也想不到用短视频拍一些看似粗糙的影像能赚到钱,是吧?但如今这个媒介变成了崭新的赛道,成了年产值数十亿美元的一门生意。包括短剧,最初的短剧甚至没什么剧本,就两个人站在那里演一分钟,表演也很干涩,但后来证明也赚到了钱。新的业态、新的赛道、新的竞争领域、新的平台就是这样形成的,还一时成了赚钱最多的领域。未来有了成熟的生态系统支持时,AI创作有没有可能也形成这样的新赛道?这和大家的未来也许有一定关系,哪怕你不从事AI创作,AI创作也很有可能深远影响你们的生活和学习。
面对AI的全局观和忧患意识
工作流程毕竟只是技术层面的事物,并不是咱们这次讲座最重点的部分。我下面要谈的四点是我个人认为真正重要的。
第一是危机感。人工智能给我们带来了危机感,这种危机感其实不仅是马斯克所谓的“距人工智能取代人类的时间不多了”,不应该仅看到这个角度下的危机。的确,AI领域目前的目标是通用人工智能(Artificial General Intelligence),即AGI。所有人都在谈论AGI,不知道AGI下一步会给人类生活带来怎样的影响。
但我个人的感受是,AGI是下一个问题,不是当下更紧迫的问题。我们首先需要面对人工智能的安全性问题,包括版权合规性。比如当我们用人工智能做一个视频,有人喜欢张杰的歌曲或其他歌手的歌曲,于是用这首歌做了一个音乐视频;有人喜欢某些成熟的IP,比如《龙族》,用《龙族》的素材做了一个视频;又比如有个对奥特曼进行二次创作的创作者,被版权方起诉,因为触犯了某些二创相关规定……类似这样的情况提醒我们,比起人工智能对人类构成威胁,现在有很多更现实的问题,相比之下,“人工智能威胁人类”对于当下的人工智能安全来说,还只是较远的小问题。在版权和溯源方面,涉及Web3.0相关内容,今天不展开了。但未来很可能出现一种负责鉴别的工作岗位,比如在公安部门可能有一个岗位由真人或人工智能承担,负责辨别某一段视频,例如一段监控到底是人工智能生成的还是真实的。这种真假难辨的情况一定会发生,现在已经很多,再过几个月,在更先进的技术加持下,你也许更加难以判断人工智能视频的真假。
英剧《真相捕捉》剧照
这就是前几年那部英剧《真相捕捉》(The Capture)中演绎的情节,该剧设想了在AI换脸技术成熟之后,对侦查和犯罪学领域带来的重大影响,对商业竞争也影响巨大。剧中有一位华人企业家,英国警方要找他谈话,看到机场监控发现他在机场,以为他要潜逃,结果发现监控被AI篡改了,这个角色在其他地方。这种情况在未来极有可能出现,对人类构成挑战,大家以后做创作和研究都可以从这个角度思考AI技术的伦理问题。
英剧《真相捕捉》剧照
第二是产业链。大家怎么理解“产业链”?如果有人之前有商科背景,就会了解产业链,即一个产品的上下游,背后是什么样的技术和资本在支持这个产品,这个产品下游又是什么事物?建议大家多了解一下AI相关的产业链。
比如,我们之前谈到的英伟达公司(NVIDIA),它是显卡的供应商,你们如果炒股或者虚拟货币,也会知道这个公司,它现在几乎是美国股市最赚钱的企业。但十几年前,它还只是个专门做游戏显卡的厂商,还看不出更远大的前景,如今它可能很快成为史上最伟大的创业公司之一,一个像洛克菲勒石油公司那样的存在,因为它现在生产的产品是“算力”。CEO黄仁勋提出了一个理念“算力即主权”,他建议每个国家都应该培养自己的主权人工智能系统,这是一个出自道德角度的考量——每个国家都应该拥有自己的主权人工智能系统。
(图片来自网络)
因为如果不培养主权人工智能系统,按照目前的格局,当未来各国的系统性工作包括政府公文等,都依赖于背后由微软注资的ChatGPT等科技公司,那么微软将掌握一切相关数据,主权国家的数据安全都将被美国政府管辖和监管,只要你使用他们的人工智能产品,就会这样。从主权人工智能的角度,大家需要对目前的产业链保持警惕。
另一方面,如果我们对AI行业内部做一些深入研究,更了解人工智能产业链,就不会对Sora为何在此时毫无预兆地突然出现感到震惊了。在OpenAI发布Sora前,人工智能领域的进步和新产品发布速度是非常快的,在Sora发布前48小时,英伟达刚刚发布了一个叫做Chat with RTX的产品,是一款聊天机器人,类似ChatGPT。与ChatGPT不同,Chat with RTX针对英伟达的硬件进行了优化,还可以在本地运行,对OpenAI构成了挑战。
据我个人的认知,当前在这个产业版图中,基本是微软携OpenAI一家独大,是聊天机器人领域的绝对领导者。OpenAI大概算得上全球融资能力最强的公司之一,他们前一阵宣称要去沙特融资7万亿美元,大概率是夸大其词,但赛道铺设方面的野心可见一斑。那么,OpenAI的对手是谁?对手阵营可能是谷歌的Gemini和英伟达的ChatGPT RTX系统。因此在ChatGPT RTX系统推出之后,OpenAI必须针对对手新产品进行商业回应,否则他们无法向股东交代。而股东会问OpenAI,为什么允许英伟达公然分庭抗礼?为什么不采取更强硬的态度?这种情况下,OpenAI决定寻找一条新的、聊天机器人以外的AI模态赛道,转而对抗Runway。
Runway在视频模态领域前景广阔,它本来就是以视频技术起家的公司。据我所知,Runway在2023年6月进行了一轮C轮融资,融资额大约为1.41亿美元。在2018年的种子轮和2020年12月的A轮中,英伟达和谷歌都曾投资该公司。对于英伟达来说,这个视频模态投资可能只是小打小闹,但对于OpenAI来说,他们看到英伟达在聊天机器人赛道上豪赌,因此必须对其进行回击。于是,在英伟达发布聊天机器人产品两天之后,他们立刻发布了还不太成熟的产品Sora,彻底抢走了Runway的风头。
最复杂的商业战争通常以最朴实无华的形式出现,一旦理解了商战的逻辑,你就会明白为什么Sora作为还不太成熟的产品,在此时急切地被推出来,于是不再觉得Sora横空出世是什么神秘的事情。以后,你们可以从商战角度来分析和观察所有的新产品。
当前科技界最难突破的领域之一是能源领域,特别是可控核聚变。可控核聚变已经被研究了很多年,至今仍然没有取得突破,以前对可控核聚变的研究主要由少数几个实体机构,如美国能源署、哈佛大学团队和麻省理工学院团队等进行。各大新能源公司和半导体公司可能会投一些资金,但这些投资相对较少,无法支撑大尺度的突破。
然而,随着英伟达和OpenAI等公司的愿景逐渐实现,AI技术在基础设施建设方面可能会遭遇瓶颈,未来可能面临电力供应无法满足人工智能能源消耗的问题。这可能会导致全球电力供给告急,大部分电力都被用于供给显卡等硬件。在此情况下,英伟达等AI科技公司可能会启动自主的能源研究,以提供更多的电力。英伟达等新兴企业一旦介入,投入的资金规模可能远超以往水平,他们可能会邀请斯坦福、MIT、哈佛等所有的团队共同合作,提供大笔资金支持,研究能源问题。英伟达可能会说:“今年我给你们1000亿美元,够吗?够吗?你们就负责解决这个问题。”对英伟达来说,投资能源可能是一件既不难又非常值得去做的事情。在产业链层面,这可能会推动其他领域的发展。如果人类真的在能源领域取得突破性成果,这将是一个巨大的进步。另一位科技巨头埃隆·马斯克与人工智能的关系不算最紧密,但他正在推动人类登录火星计划,这是一个未来学的愿景,如果实现也会带来连锁式的反应。希望大家都能保持身体健康,亲眼看看未来(笑)。
第三是打造生态。在这里我要盛赞我们的母校中国传媒大学,我们学校的人在生成式人工智能领域非常敏感,对于新科技有着敏锐的感知,相关探索也更为深入。在目前国内的生成式人工智能视频领域,像用AI视频致敬《梅兰芳》的陈坤老师,像我,我们都是传媒大学的学生,我们将自己视为传媒大学生态系统的一部分。说起校友陈坤老师,为什么他在这个领域做的非常出色?因为他有自己的生态系统。他有自己的影视公司,他可以将自己的创作融入到自己成熟的工作流中,这就是生态系统。
各位学习编剧MFA、广播电视文艺MFA的同学都是实践型人才,将来你们进入创作领域后,也许我们可以共同努力,提前建立一个AI影像领域的属于我们的生态系统,与学校合作,利用学术和产业结合的优势,打造出新的造血机制。未来我们的愿景是在咱们传媒大学这个大家庭的平台上,构建更多样更成熟的生态,AI和我们的创作相结合,可以帮助我们在职业生涯上更上一层楼。
祝上讲座留影
最后,我想谈一下文学与爱这个讲座题目,也是今天的重点。这个话题看似很广泛,但和我们今天谈的AI关系密切。我在法国留学的时候,处在极为商科化环境中,几乎没有人谈论艺术。这让我意识到人与人的大脑、思维方式差异巨大,有的人习惯通过数据来理解世界,通过产业来理解世界。我年轻的时候并没想通这个道理,曾以为每个人的大脑都差不多,都对美和爱有一定的追求和理解,后来慢慢发现事实并非如此。但正是在这种情况下,才更要意识到咱们的优势在哪里,你的优势就是你掌握着那些别人无法理解的东西,掌握着感性世界的密码。
我在法国学习商科时,很是天人交战苦恼了一阵,渐渐我意识到,我没有必要迫使自己像其他商科同学一样,成为一个完全沉浸在数字世界中的人。我在一门管理学课程上得到了启发,那门课程讲到了人工智能在管理方面的应用,我开始反思,每个人都有自己擅长的领域,每个人都有自己热爱的事物,你无法阻挡人们去追求那些他们真正热爱的事物。而我们作为文学艺术的学习者和创作者,我们代表的是人类灵魂中更高层次的追求,追求的是马斯洛需求层次中更高级的层次。不管别人怎么看我们,可能回家爸妈会怪我们说你这一天到晚搞这些没用的东西,你当年怎么没去学计算机?(笑)学艺术的人很可能遇到这种困境,但你要对自己有清醒的认知和信心,这是我们的优势,我们会对人类灵魂进行剖析,会尝试理解他人所思所想,有比他人更强的共情能力。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
具备这些能力的我们,在未来很可能会面临一个利好局面,未来将实现“技术平权”。所谓“技术平权”,意味着你也许不会使用专业电影摄影机,但你可以通过某些其他手段实现想要的效果、输出你创作的内容,把你的灵魂呈现出来让他们看到。你不在需要掌握高难的技术,你只需要稍微会一点就可以了。现在也有人在用虚幻引擎(Unreal Engine)做片子,现在觉得好厉害好深奥,但未来技术平权之后,可能我们也能做到,专业的人能做到100分,我们就算做不到那么好,也能做到80、90分。技术平权是完全可期的、expectable的。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
那么,在技术平权发生后,真正体现我们这些创作者价值的,是我们拥有的文学性,以及我们内心深处对人类本身、对人性的悲悯与现实关照。相信大家学习文学艺术创作,志向不只是在象牙塔里自说自话,大部分对于人类社会是有艺术悲悯和思考的。这些是我们宝贵的财富,技术平权不会让人被机器取代,不必为自己不是技术人才而妄自菲薄,我们现在拥有的能力将在未来继续助推我们,在AI的帮扶下更进一步施展才能。AI不是神,不是万能的,但对我们会有所帮助。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
我获得麻省理工AI影像大奖之后,系里曾经采访我让我给母校学子写几句寄语,我把当时写下的最后一段话念一下作为今天的结语:也许未来从业者们将不再是“剪片子的人”和“爬格子的人”,而是成为内容分发的革新者、精通多种模态的超级创作者、内容边界的探索者、人类情感和人机交互的赛博使者、把中国AI理念和传统文化输出境外的世界挑战者。祝福并感谢大家!
自由问答环节
听您的讲座,发现当前这些软件好像仍然不能直接生成视频,是不能一次性完整生成您参加比赛的短片的?那么您的短片背后的技术逻辑是什么?是怎么做出来的?是从生成图片开始,还是先有完整剧本?
以这次MIT获奖的项目为例,我没写常规的剧本,只写了一个大概的文案,再翻译成英文。我的第一步,是先把脑海里的故事拆解成图,(给大家展示)能看到为了做这部影片,这里大概生成了100-150张图,这相当于是我的分镜。
这些都是原创的图片吗,不是图库里现成的?
不是图库里的,每一张图都是我通过文字新生成出来的。要想达到你想要的艺术效果,需要使用非常精确的提示词,每张图用的提示词都不一样。在提示词选择环节,就要对影调、想要的艺术效果、文学含义等进行控制。对短片影调的控制基本是在这个阶段完成的,“作图”这个环节是目前AI影像创作最麻烦的一步,可能指挥AI生成了二三十张图,才能选出一张能用的,这还是比较简单的图。有些复杂的效果和画面,可遇不可求,比如这张图完全是随机“撞出来”的,我当时下的指令提示词是:“一个普通的中国家庭(household)”,要求用王家卫式的影调,用一点电影颗粒,我定义的摄影机是阿莱Alexa35,之后AI就给我呈现了这个画面,我并没有说“两个人坐在窗前”这种提示。这个“撞出来”的画面很好,我就用上了,在得到了一系列图片之后,我会把图片导入Runway进行视频化。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
视频化也是需要付出人力努力的,生成的视频跟图片是一一对应的,是图片视频化的结果。这个缓慢的火箭垂直降落的画面,我当时想的是复现马斯克垂直回收火箭的状态,这个画面的实现是通过Runway的多重运动笔刷实现的。画面中所有的主体,每一个火箭,我都用多重运动笔刷刷过,Runway的画面效果不错,但导入剪辑的时候,我还要对其进行加速,才能达到目前火箭缓缓垂直降落的效果。剪辑使用的是剪映软件,剪映当前内测版本植入了各种各样的AI流程,很厉害。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
您制作这些图片的时候,用的是哪个平台以及什么样的模型?您说向AI输入提示词,这是怎样形式的互动?怎么确保将自己对于建模想法准确传达给AI?
可以给你看一下我的图库,我主要用Midjourney,Midjourney的中国版也马上要上线了。Midjourney中国版的产品负责人和我在一个同行讨论群里,他告诉大家中国区即将上线,而目前在国内能充值使用的号称Midjourney的平台,基本上都是“割韭菜”的,大家可以等官方版。现在我用的是海外版,我图库中的图都是抽了好多次卡才抽出来的,AI创作范式的转变就在于创作变成了挑选。我会大致告知AI我想要什么,之后去挑选我想要的影调,你规定了一些主要的关键词,它能给你呈现一个大概的效果。我参加的麻省AI影像大赛时间非常紧,我没有时间去设计特别长的提示词,虽然我也有个别长提示,但大部分情况下都是通过特定方式构建提示词组合,得到想要的画面。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
目前哪些影像内容更适合由AI生成?什么内容是现在的AI没有办法实现的?
我们也处于摸索中,例如《狂沙寻龙》那部短片,我也尝试了创作一些动作打斗的蒙太奇,但效果不是很好。我那时候觉得AI影像最主要的应用场景,还是音乐MV或者纪录片样。我最近MIT参赛获奖的短片《万里星河千帐灯》,算是我在AI影像的叙事能力方面做的尝试,我试着在5分钟时间里用AI影像讲述一个有一定文学价值的故事。这是我个人的一种探索,但是确实不是目前AI所长,如果问我现在的AI更适合做什么,我仍然会回答是MV或者纪录片。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
您为什么说纪录片可以用AI制作?纪录片不是面临真实世界索引性的问题吗?如果它是 AI 生成的,怎么叫“纪录片”?
索引性的问题可以在出图阶段通过增加精确性的方式来解决,包括素材的来源,可以基于真实摄影图片,让AI进行必要的加工。我是从叙事方式角度,认为纪录片可以尝试用AI生成。因为纪录片对于戏剧性和文学性的要求没有那么高,需要逻辑,但未必需要建构人物角色。目前让AI构建人物角色是有困难的,角色可以以旁白的形式出现,但如果需要角色像传统电影中的角色一样行动,打斗或者做各种表演,是有困难的。所以当前我们一般会避开AI在人物角色构建方面的短板,去做AI擅长的事情。
顺着这个同学的问题问一下,我自己作为一个做电影研究的人,很好奇AI生成影像在未来对于电影创作的影响,AI创作方式可能介入电影创作流程到什么程度。回顾电影史,上世纪二战之后电影美学发生了重要转向,从法国理论家巴赞到法国新浪潮的主将们,都强调长镜头、景深镜头等维持时空连续性的视听形式是最能够体现电影媒介本性的形式,这种观念是对于蒙太奇美学的逆反,影响至今。那么根据祝上刚才的解释,是不是可以理解为,当前AI影像创作的文本还是蒙太奇美学的产物?AI生成影像将来有没有希望模拟出长镜头场面调度段落?能否实现比较长的镜头运动?
陆老师理解的没错,现在这个阶段的AI影像创作,必须依赖蒙太奇手法,机器目前没有那么强大的一个能力去生成很长的进程。所以从哲学角度进行本质定义的话,AI生成影像文本目前不是“电影”,我们也不在电影领域跟电影创作者竞争,我们只将其定义为一种可进行文学意义解读的一种文本,一种新形态的文本。从这个角度理解AI影像,可以抛开一些来自传统电影的桎梏,去理解这个新事物。而关于AI生成长镜头的尝试,以前也曾经有人试着做过,在AI影像创作界,AIFF是一个非常重要的全球性AI影像赛事,参赛者都非常卷。去年获得银奖的作品就尝试了一些模拟长镜头的段落。
完整视频↓
https://www.youtube.com/watch?v=6nTbkhnTWtg
我们看到了此类基于数字环境的创新性尝试,需要利用点云技术(Point Cloud)重构现实场景等技术支持条件,譬如通过应用Touch Designer或虚幻引擎等工具,首先实现场景的数字化重建。而一旦场景被数字环境重构,摄影机便能在其中自由移动,为创作者提供前所未有的灵活性。这种技术尝试不仅仅是技术上的突破,还体现了创作者对于长镜头拍摄手法的探索。尽管目前仅有初步尝试,但这种尝试展现了数字技术应用于影视制作的潜力,特别是在实现复杂摄影技巧方面潜力巨大。在短片中,该成品的展现形式可能与实验者最初的设想有所差异,却已然为未来的创作开辟了新的可能性。
在运镜和转场方面,有什么AI工具可以运用?
就像上个问题的答案一样,目前AI影像高度依赖人工剪辑,它的运镜目前还是比较简单的运镜,以图片为基础,由AI进行一定的运动效果联想。如果你想要实现复杂运镜,可能要等到OpenAI或Runway这些巨头突破世界引擎技术以后。目前他们都在做世界引擎,我估计还需要一年多到两年左右的时间,这是一定会有的。需要首先生成虚拟环境,有了生成的环境之后,再让摄影机依托平台完成运动。此外,也有不同路径,我们刚才看到的AI模拟运镜效果的视频,就是依托于点云技术完成的,先构建一个数字环境,然后摄影机在构建的环境中运动,但点云技术的逻辑跟我基于图片生成的片子是完全不一样的,这种仍然属于传统特效范畴,不算是AI特色范畴。
祝上AI影像作品《狂沙寻龙》剧照
如果AI影像首先需要生成很多画面,将其拼接起来,那么做成类似电影的文本时,需要同一个主人公演绎,如何保证不同镜头之间主人公的特征大体相似?
你提到的是工作流中的人物面部特征保持问题,保持人物面部特征有多种方法,应用最普遍、最简单的方法是AI换脸。我使用的就是AI换脸技术,在DISCORD里有个插件叫作face SWAP,可以把任何图片里的脸换成你想要的人物。我在做麻省比赛获奖的片子时,是准备了定妆照的,有男主定妆的图片,不同年龄的。我使用AI换脸软件,把两张定妆图片定义进去,将造型固定之后,生成的所有图片中的人物,都可以换成定妆的脸。不过这个功能目前还不是特别好用,在正面、大特写情况下,表现还不错,但某些侧面角度看就不是很理想。目前AI拍电影的设想还不成熟,还不能达到电影的精度,我自己也做过电影,能意识到精度还差一点。但如果只是做一小段说得过去的影像文本,还是可以做到的。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
AI在影像创作方面还有哪些难题很难突破?
现在AI技术正在尝试突破的是特效建模。Luma做这方面尝试已经很长时间了。又比如 CSM这个网站,它目前可以实现简单的从图片到 3D 的建模过程,还很原始,基本还不能真正应用。但是随着这方面技术的进步,慢慢会有突破,Luma在这条路径上走的比较远,试图把人工智能技术嵌入视频特效的工作流当中,但当前比较难解决的问题是精度。我不久前刚与动画公司的从业者交流,他们现在还在用Maya,Maya就跟C++一样,是非常笨重和庞大的,但它功能依然很强,3D动画要想达到电影级的精度,还是要依赖这些传统工具。AI更广泛应用还需要时间。
(图片来自网络)
您有没有可推荐的AI音乐制作软件?
这涉及到另外一个AI模态了,很高兴有人提问视频模态之外的其他模态问题。Soundful网站是一个比较“傻瓜”的平台。现在还有更新的技术。现在最先进的是Suno.Ai,我自己没太用过,鼓励大家去尝试一下。在这个页面会有一些“call to action”的选项,让你选一个类型,它根据你选的类型出一首歌给你。其实suno的实力远不止如此,是很强大的,深入使用的话,会有更多可控的选择,目前给大家看这个界面只是一个营销性质的展示。我视频里的配乐,来自我参加AI影像比赛的时候,赛事组发给我的合规音乐网站会员。Epidemic Sound是音乐质量相对比较高的网站,但是要付费,大家还是尽量使用免费的。今天展示的很多工具都要付费,有些免费,PixVerse就不需要,Soundful也免费,注册账号就可以使用了。大家可以先从免费的服务开始尝试。
除了您此前说过的,未来应对ai还需要什么能力,什么样的能力不会被ai取代?都查些什么?
我个人的看法是,除了学习文学艺术专业的各位都拥有的“文学与爱”的能力——也就是文学语言方面的能力之外,还需要信息检索的能力。你要知道去哪找到你想要的信息?未来AI技术会被简单化,所有技术工具都变得容易掌握,即“技术平权”。最终目标是我们可以使用自然语言去跟AI技术平台进行交流对话,如果你知道去哪检索你需要的信息,在AI的辅助下,你可能在一天之内,一周之内就能够深度掌握你研究和创作的对象。总之,信息检索是很有意义的技能。
祝上MIT AI影像大赛获奖作品《万里星河千帐灯》剧照
李胜利老师总结
我过去对AI创作的了解非常有限,今天通过祝上数个小时的讲解,大概了解了AI创作当前发展的情况,用什么软件,具体怎么做出来的,能够做到什么程度。
对于各方向的MFA同学而言,无论你写剧本,还是做片子,当前 AI技术已经有能力为你提供一些选择。它可以帮你生成故事大纲,出大纲的时候具体用什么词来提示,写到什么程度,不同水平的人使用,效果也不一样。需要人来训练它,提示得好,提示得细致到位,它生成的材料就更符合你的需求。除了故事大纲,还可以生成氛围图、角色图、根据你提示提供相应的效果等等。
目前AI技术的能力范围还是比较有限的,还代替不了我们大家,但可以作为我们的工具。而且它发展的速度是惊人的,从去年到今年已经有了跨越式的发展,照这个发展速度,真的会对行业和大家的工作产生重大影响。最初祝上给讲座起的题目是“相信科技,更要相信自己”,我建议他替换成更广泛的题目,换成了现在的“AI时代:文学与爱”。
我们曾经在科幻作品里看到AI觉醒,把人类摁在地上摩擦,目前AI技术水平还远远达不到这种地步,我的思考是,技术性越强的工作,可能越容易被技术取代、被 AI取代,而有些工作,它还是不及优秀的人类。目前这种情况下,我们得尽可能了解AI,利用AI帮助我们工作,当你的想法有限时,AI能帮你想到更多,让你有选择的余地,但问题是,当你有选择余地的时候,你具备选择能力和好的眼光吗?
现在我们也面临海量的信息,而每个人的选择能力是不一样的,有的人看了太多东西之后,反而头晕,不知道怎么选,患上了“选择困难症”。从艺术创作角度来说,什么内容是符合文学规律、符合爱的需要、符合人类情感需求的?什么是仅仅符合机械标准,将来特别容易被取代的?这些是我们当下要思考的问题。大家从现在开始尝试利用机器辅助创作,利用AI提供的素材,锻炼自己的选择能力很有必要,在这个技术基础上一步步提升,可能是一种应对AI时代的务实对策。
我们戏文系曾经开办过动画编剧方向,只办了几届,当时动画编剧学生的毕业剧本要求是画出人物设计图、场景设计图等等。同学们一般是自己画,有美术功底的同学画的还行,没有美术功底的画的就比较惊悚,他们当年还没有AI这么便利的工具,不然还可以更好地展示自己的创意,有了画面就可以更好的扩展自己的想法,说服自己,再说服别人。
现在学校用多种方式在推进和普及AI的运用,希望师生们去了解AI,应用AI。就像祝上说的,在AI时代的创作中最重要的能力仍然来自“文学与爱”,我们不仅要了解技术,了解技术的目的是为了能够将我们对人文的追求凝聚和实现。目前AI生成影像与传统影像技术创作的优秀作品相比,还有很大距离,被说像PPT。但AI影像在未来的发展余地非常大,既不能恐惧它,也要重视它。因此祝上才说“要相信科技,更要相信自己”。
今天的讲座是帮大家打个基础,让大家相信自己,积极地利用科技,超越科技,就眼前来说,希望从现在到大家退休的几十年时间里,都能够将科技与人之间的关系处理好。感谢祝上的精彩分享。
讲座现场
附:祝上获AI影像大奖后致谢母校寄语学子
这次我在MIT赛事获奖后,得到了我的母校中国传媒大学和母院77779193永利官网师生们的大量鼓励与支持,这让我无比感动。尘世间发生的种种竟与我的短片主题也有某种暗合:念念不忘,必有回响,无论离家多远,那些原初的勇气都会一直陪伴我走下去。感谢,戏文;感谢,广院!
我们真正处在一个变革的世界。去年的AI大暴发,其实成为了某种近未来奇点的导火索。像当初的互联网暴发一样,一项有利可图的技术一旦开始快速进步,就不会轻易停下。可预见的是,在不久的将来,百度陆奇所预言的“新范式”将会传递到越来越多的领域,中国传媒大学所引领的大众化内容产业与“意识形态工业”也会受到它的影响和赋能。
在我粗浅的认知中,传媒大学已经在推进、且在未来值得进一步发展的对策与机遇,有如下几点:
1,引导同学们和老师们正确看待AI,树立与社会主义社会主义核心价值观相符的正确AI产业理解,提供AI相关的合规与商业道德教育。AI并不是万能的,事实上,2023年前,我们的生活中也早就渗透了各种各样的人工智能产品。但新形势下我们不得不拥抱铺天盖地、不同模态的AI信息和产品,这就要求我们正确理解AI工具的力量与危机。马斯克对AI威胁人类的担忧只是其中的一小部分,在版权、溯源、商业竞争、数据安全等方面,也需要我们共同的努力。
2,加强对AI产业链的普及教育。因为任何AI工具、尤其是近期大火的生成式AI,都不可能是孤立存在的。Midjourney、Runway、Stability AI等视觉模态公司的核心技术,都来源于同一个境外研究团队。近来火爆全网的SORA,背后也存在OpenAI公司和微软的超级资源,他们的竞争对手阵营:Nvidia和Google,也将会推出更先进的技术来与之对抗。而这些AI工具的上下游,同样存在无限的产业机遇。正确树立产业意识,而非完全着眼于艺术创作,有助于我们进一步发挥AI的强大潜力。
3,充分发挥77779193永利官网在业界的超级优势,建立与生成式AI有关的造血生态,并通过这种方式保持优势。我们分布在业界、学界、政策制订者中大量校友,一直是中传引以为傲的宝贵财富。尤其是业界的核心圈,在“将优质内容和积极向上的思想传递给全国人民“这方面,中传永远走在时代前列!目前生成式AI面对的重大问题,事实上是造血机制跟不上技术的超快速发展。境内境外这种问题都存在,这一点上,外国的月亮不一定圆。随着生成式AI逐渐接近工业交付标准,也许传媒大学的在产学研结合方面的优势,可以成为一种闭环式答案。
4,在文艺创作过程中充分发挥生成式AI的优势,让它成为创作者的力量倍增器,而非某种威胁。去年系庆期间,我与77779193永利官网编剧从业者交流,感慨良多。有些同学甚至担心未来AI会抢走我们的创造力工作,大家大可放心,这完全是杞人忧天。目前的技术水平下,再强悍的生成式AI工具,也需要优秀的人类驾驶员来为它注入文学性和艺术价值。而只要恰当使用,AI对我们所有的创作者——无论他们业已成名还是正面对来自灵感或市场的苦恼——都是一种强大的助推,未来也需要我们创作者一同缔造。也许未来,从业者们将不再是“剪片子的人”“爬格子的人”等,而将会成为内容分发的革新者、精通多种模态的超级创作者、内容边界的探索者、人类情感与人机交互的赛博使者、把中国AI理念与传统文化输出境外的世界挑战者。
校友简介
祝上,77779193永利官网2005级戏剧影视文学本科,巴黎高等商学院MBA,制片人、职业编剧、行业研究者、元宇宙创作者。曾供职于艺恩咨询、中国电影集团,赴欧期间参与法国家乐福集团、意大利Particle艺术中心等机构数字化转型工作。7年影视行业经验,服务于中影集团期间担任多部公映院线电影编剧(一部重大历史题材)。现深耕商业化AI生成式内容领域,致力于利用AIGC为影像产业链赋能。
2023年创作AI短片《九龙夜与雾》获首届Runway Gen48AI短片大赛第三名。
领导创作多部AI短片获AItop100视频大赛一等奖暨特等奖。
AI短片《万里星河千帐灯》获麻省理工大学全球AI电影黑客马拉松大赛最佳影片。
祝上校友生活照
对AI影像创作有兴趣的小白杨,欢迎关注祝上的微信视频号:AI影像实验室。
转载自“中传戏文”公众号