![]() |
||
绵阳仙海科普创新基地主办 绵阳市科学小说研究会共办 |
||
1
提示词工程:智能长篇小说的核心驱力 2025-02-08 中国作家网>>理论评论>>文学评论 提示词工程:智能长篇小说的核心驱力 来源:《南方文坛》 | 王 峰 2025年02月08日09:43 一 源 起 大约在三年前,我开始组建团队,探索智能写作的方法①。从自然语言处理的技术角度来看,智能写作已经不再是一个难以攻克的难题。只要找到一条合适的道路,便能够大展拳脚。当时,我们制订了智能写作的方案,并邀请了计算机、文学、语言、哲学、古籍、数学、地理等多个领域的研究者共同探讨这一方案。大家从各个角度对这一方案进行了评估,认为,实现智能写作的可能性非常大,因此,我们充满信心和激情,准备将这一方案付诸实践。 我们的方案是,采用自然语言处理技术,借助GPT2进行语句替换,以期实现智能写作②。然而,2022年底GPT3.5的发布给我们的设计带来了巨大冲击。我们发现,几乎所有设计都可能被GPT3.5所替代,留给我们的技术空间已经非常有限。这让我们感到有些失望,团队中的计算机专家认为研究空间已经被大幅压缩,甚至产生了对计算机专业合理性的怀疑。同时,由于ChatGPT访问的困难,最新技术无法快速使用,这也影响了我们的探索。 四五个月后,国内大模型蓬勃发展,在技术上也逐渐能够满足我们的需要。在重新审视问题后,我们决定将工作方案与新的大模型技术结合起来,以便更快速地实现智能写作。我们将大模型能够实现的部分交给它处理,同时制订了提示词工程的工作方案,其原则是,将大模型可以实现的部分交给大模型完成,其他部分由人制定,最大限度发挥大模型的潜力。这一方案此前尚未有人探索过,我们对其可行性也心存疑虑。考虑到大模型的巨大潜力,我们决定勇敢尝试。通过这一调整,我们将主要精力投入提示词的实验和工程建设上。 此前,我们虽然做过提示词撰写工作,也对大模型的生成结果做出不少实验,但是生成长篇文本却并没有尝试过,这也是单独个人能力达不到的。我忧虑的并不是提示词本身的质量,也不担心大模型生成的文本质量,因为这些都可以通过继续优化来提升;我所忧虑的,一旦投入50条或100条提示词到大模型中,大模型失去逻辑性,无法输出文本,以致无法进行下去。进而说,哪怕100条提示词成功了,也不代表1000条提示词能够成功,特别是长篇小说往往要达到2000条甚至更多的提示词,大模型能承受如此多的提示词连续投入吗?我们心中无数。我们对大模型的文本生成界限还一无所知。文本生成能力是否会一直保持稳定?我们也不知道。我个人无法完成这项任务,因此,我和集美大学的周伟薇老师一道共同建立大模型创意写作工作坊,邀请华东师范大学和集美大学的几十名同学参与探索。在这个过程中,我们遇到了许多困难。一个基本困难就是提示词的编写,怎样做才是达到要求?这并不容易。 在使用大模型进行研究或应用落地时,要注意安全问题。个人研究时可以用ChatGPT,但如果追求可以成长的平台,那么就只能使用国内大模型来生成。我们希望建立一个公共的平台,为了规避可预计的风险,并且考虑到长期的数据安全问题,因此并不使用国外的大模型。尽管目前国产大模型的表现尚有欠缺,但我们坚决选择使用国产大模型,只要它们能够正常运行。我们期待在未来几年内,国产大模型能够与国外的大模型齐头并进,成为常用的生成工具,那时,我们的平台系统也基本搭建起来,可以生成具有相当质量的智能小说内容。因此,从一开始,我们就明确大模型的探索原则:以国产大模型为应用底座。 二 “失控”的内容生成 为了达到我们的实验目标,即迅速检验提示词投入大模型的效果,我们采用了一种特殊的方法:复刻已有的网络小说,以快速获得一个小说结构。复刻就是对照既有小说写作提示词,并将这些提示词投入大模型。我们的实践发现这一技术路线是高效的,能够达成实验的目的。 在实际操作过程中,我们对探索方法进行了多次调整和优化。怎样写作高质量的提示词成为前三次工作坊的主题。后来慢慢找到写作的技巧,但另一个问题产生。一开始,我们希望大模型能够生成符合我们期望的文本结果,但现实却是大模型的生成结果往往显得有些“失控”。这不免让我们感到手足无措。我们努力进行控制,但很快发现,几乎所有的控制都无法完成任务。提示词写长了不行,写短了也不行。将提示词输入大模型时,我们发现每次生成都不一样,当然如果刷新到六七次,重复就开始出现了。但无论哪种情况,生成的文本与复刻对象在文本语句相似度上几乎为零。起初,这让我们非常烦恼,后来我们逐渐领悟到:既然无法完全控制大模型的输出,何苦一味追求符合自己完美构想的结果呢?或许这正是大模型本身的特点,试图让它按照我们的期望产生完美的文本结果几乎是不可能的。 当我们放弃这种想法后,发现道路反而变得更加宽广。如果将这种“失控”视为大模型自身的一种特殊变量,我们可以尝试为它提供一个适度的框架,让它根据自身的变量处理方式产生不同的文本。这样一来,我们便可以利用提示词让大模型生成小说文本,只要我们为其提供一个相对具体的框架就可以进行创作。凯文·凯利认为,复杂的系统(如生态系统、经济系统、社会系统等)在看似混乱的过程中,实际上是在进行自我组织和自我调整,从而形成新的稳定状态。这种过程是自发的,不受任何单一元素的控制,而是由系统内部的所有元素共同参与③。大模型的文本生成正暗合这一复杂系统的构想。只要我们放弃人类完全控制文本创作的执念,将文本的具体生成视为大模型的任务,并且具有较高的偶然性,人机相融,人只要负责整体框架设计就可以,那么我们就达成了某种可接受的整体性。这是我们在大模型长篇小说写作中获得的第一个观念:人来保证长篇小说的整体可控,由大模型进行细节控制(哪怕这时显得有些失控)。 实际上,已经有不少人尝试利用大型语言模型来进行小说创作。我的网络写手学生也告诉我,他们使用分段提示词投入大模型来提供灵感,然后进行大量的修改,成稿之后再交给网站编辑。这已经是默认的网络小说流水线。 在我们的智能写作探索之前,国内已经有公司进行了相关尝试,比如一个优秀的创意写作公司彩云小梦,主要使用GPT2进行语句续写。这一探索的本质是将写作任务交给大模型,只给大模型一个句子,让其进行续写。但是由于此前GPT2本身的能力限制,这一实践推进缓慢。2024年,清华大学沈阳教授团队借助ChatGPT完成了一个中篇小说作品,方法是让大模型编写一个提纲,再按照提纲的条目生成内容,就此结成一个小说。这是将一个大型任务分解为诸多小任务的做法,这种做法与我们的做法相似,即利用大语言模型,将大型任务分解为小任务,小任务转变为提示词,通过提示词投入大模型的方式来生成内容,结成一部小说。 对于短篇和中篇小说而言,上述两种方案已经是有效的,但对于长篇小说而言,上述两种方案都有可取或不可取之处。可取之处是,大模型自身具有创作能力,这证明大模型进行小说写作是可行的;不可取之处是,两种方案从本质上讲都依赖大模型自身的上下文长度,这一上下文长度也成为2024年国产大模型发力点,但这种上下文长度指的是阅读上下文,并不是生成上下文,生成文本与阅读上下文的关系不是正比例关系,而是正指数比例关系,生成文本越长,阅读上下文长度必须呈指数级别的提升。我认为前两种方法就像黄河决口,在平原上自由流淌,最终形成一些河道,这些河道完全不受控制,是一种完全依赖大模型自身能力的做法。在当前阶段,这种方法无法完成长篇小说写作这一目标。如果大模型目前的上下文方案不改变,可能要到量子计算机普及时,大模型才能真正进行基于自身能力的创写。 我们采用的方法是通过系统性提示词向大模型提问,在提问过程中对其进行更精细的限制。再用黄河决口的比方,我们必须因势利导,利用地形的优势,让决口之后的河水在狭窄的地方流淌,在平坦的地方修建河道,引导它沿着我们期望的方向前进。虽然这个过程可能会出现一些溢出,但这些溢出都在允许的范围内。同理,大模型最终形成的文本基本上会遵循我们希望的整体大框架和方向,而不是像黄河决口后在平原上肆意流淌,失去整体控制。 在整个工作坊的实验中,我们逐渐领悟到这种工作方式。通过提示词工程这一方法,我们成功地生成了大量情节连贯的文本内容。这为我们进一步研究和探索提供了有力支持。 三 尝试性的验证 文本生成检验分为两个阶段。 第一个阶段是将相同的100条提示词投入6种国产大模型,以检验哪一种国产大模型能够更好地生成文学文本。最终发现讯飞星火和文心一言这两种大模型效果最佳,输出文字多,表达也有一定的文学味道。月之暗面公司的KimiChat输出文字较长,但表达效果欠佳,更像是商业交往文本,可能是因为训练材料缺乏文学材料的缘故。其他大模型在连续投入30—50条提示词之后,出现了无法回应,或只是将提示词重新输出一遍,或频繁无结果输出等问题。我们期待在再过两三年后,有10种以上的大模型都能被成功使用。当然,哪怕是讯飞星火和文心一言,表达上也相对有些干瘪,这是语料训练过度广泛导致的,如果我们缩小训练语料,主要集中在小说语料上,并进行本地大模型微调,输出效果会明显上升。第一阶段的成果是一部4.3万字的中篇小说,2023年12月31日发布④。 第二个阶段是2000余条提示词生成的长篇文本,110万字小说,2024年3月22日通过澎湃新闻发布⑤。百万字小说的影响力明显比较大,阅读量和下载量都还不错。有一些朋友读过,觉得非常有趣。这可能是由于大模型的“文风”比较特殊的缘故。大模型生成的小说情节还算跌宕起伏,但推进的方式是议论式的,这跟我们写小说不太一样。我们在写小说时,一般通过对话和情节描述来展现情绪,而不是一下子把所有内容都说出来。这种方式更有文学性,因为它可以逐步揭示情节,整个故事结构完整,包含了许多情节和心理活动。大模型生成的小说却包含大量的议论性内容,读起来不免乏味,我们虽然删掉了明显冗余和过度议论的内容,但其基本表述结构是无法修改的,只能任其如此。我们完全可以想见,目前读到智能生成小说的读者(尤其是文学学者)对小说是不太喜欢的,因为它与我们既有的小说写法太不一样。按我们目前对小说的看法,大模型小说全身皆病,非常“水”。我们也同意这样的判断。然而,考虑到大模型未来的迅速“进化”,也考虑到我们可以对大模型进行进一步调整,完全可以推断,再过两年,也许更短时间,大模型小说就可以从目前的“青涩”阶段进展到相对成熟的阶段,具有一定的写作质量。 考虑到保存“历史”状态这一因素,我们尽量控制人工修改的幅度,只是对自动生成的文本做了一些必要的修订,主要是调整情节跳跃的地方,对表达语句并未做修订。由于大模型的“文风”实在独特,修改就是动全身,也无法进行全面修订。 大模型利用提示词进行写作时,有一个独特的特点,即光明的尾巴。比如,我让它写一段情节,一次生成的长度通常在400—700字之间。使用任何国产大模型,生成的文本长度最多也只能达到500字。(基于2024年2月1日前的国产大模型能力)即使运气好,生成700字,也时常会出现100字左右充满正能量的结论性论证。这需要删掉,保证后面的情节还能进行下去。 在写提示词时,这是一个特别痛苦的过程。后来我们发现,通过更具体地描述场景,可以更好地控制情节走向,也可以消除“光明的尾巴”。但是,如果提示词过于具体,大模型就无法生成文本了。因此,我们需要学会巧妙地书写提示词。 当然,哪怕我们提升了提示词的写作技巧,也会发现,大模型时常写出让我们啼笑皆非的句子。以实验性的中篇小说《扮演那个有魔法的人》为例,其中一处写到游戏中的8种雕像,运用了排比句来描述它们,但是我们在写作时很少使用这样的句式,这正是典型的大模型写作风格。 在圣殿的深处,田一元被八座巨大的种族雕像所吸引。他可以看到每座雕像都代表着一种不同的种族,而每一种族的雕像都散发着独特的光芒。 首先,他看到了人类的雕像。这座雕像高大而威严,散发着一种智慧和领导力的光芒。人类作为艾泽拉斯上最强大的种族之一,他们的雕像自然也散发出无与伦比的威严。 接下来是精灵的雕像,他们坚毅而勇敢,散发出一种勇气和坚韧的光芒。精灵作为艾泽拉斯上最勇敢的种族之一,他们的雕像也散发出了这种勇敢的气息。 然后是妖人的雕像,他们机智而聪明,散发出一种智慧和创造力的光芒。妖人作为艾泽拉斯上最聪明的种族之一,他们的雕像也散发出了这种智慧的气息。 接下来是兽人的雕像,他们优雅而神秘,散发出一种自然和神秘的光芒。兽人作为艾泽拉斯上最神秘的种族之一,他们的雕像也散发出了这种神秘的气息。 然后是妖精的雕像,他们粗犷而强壮,散发出一种力量和狂野的光芒。妖精作为艾泽拉斯上最强大的种族之一,他们的雕像也散发出了这种狂野的气息。 接下来是龙族的雕像,他们雄壮而威猛,散发出一种勇气和荣誉的光芒。龙族作为艾泽拉斯上最崇尚荣誉的种族之一,他们的雕像也散发出了这种荣誉的气息。 然后是亡灵的雕像,他们阴森而诡异,散发出一种死亡和破坏的光芒。亡灵作为艾泽拉斯上最恐怖的种族之一,他们的雕像也散发出了这种恐怖的气息。 这样的描写暂时没有办法修订,只能原样保留,也算是一种“历史状态”。 第二阶段的实验是为了进一步验证1000条以上的提示词能够在国产大模型上进行有效生成。我们采用了复刻现有网络长篇小说的方式,这样可以迅速获得一个连贯的结构,投入大模型进行长文本实验。我们首先选择玄幻小说为实验对象。目前的大模型适合写玄幻、现实类小说,古典类有些困难,这可能与训练材料有关。相信我们后面进行小说大模型微调之后,这些难点就会消除。整个工作流程是,对网络小说的结构进行分析研究,根据大模型的特点,分解出网络小说适合于大模型的情节分段结构,编程进行结构化处理,撰写大量提示词,建构出一套玄幻小说提示词,并通过调用国产大模型API,将提示词投入大模型,批量生成内容,抓取生成结果,形成一部长篇小说。从实验结果来看,我们完成了设定的任务,并且收获了不少有益的经验。 由于提示词是系统化的,所以整个小说的基本线索是连贯的,整体上能够达成可控制,但是由于大模型生成具有偶然性,总是存在一些不确定性,导致细节上跳跃性大,不连贯处多,所以后期人工介入对其进行修改,删除掉重复、累赘的部分,为情节跳跃的部分撰写连接语句,同时也删减了某些多余的结构,精减线索,以免大模型的描述太过分散,最终打磨成型,形成110万余字。 由于百万字智能小说是一个实验性的作品,出现许多此前想不到的“失误”。创作这一作品的时候,我们其实并不知道会出现什么结果,从最初设想来看,只要能写出来,大模型能够运行全部提示词,就达到了我们的目标。这一目标成功完成了。我们后面进行必要的人工修正,使这一智能小说达到能够阅读的水平。我们相信,随着大模型技术水平不断提高,智能写作的质量会不断提升,人工后期调整的工作量会不断降低。 从提示词写作来看,我们收获了不少教训,后面要避开,比如,新角色的出现一定要进行交代,否则就像凭空出现一样,显得没头没脑。目前编写提示词时却没有做到这一点。大模型并不会自动理顺人物逻辑,可以发现一个人物是新出现的,这要极长的上下文能力才能做到。目前来看,大模型能够做到的是,将每一条提示词视为标准,并按照提示词的要求完成任务。它不会额外交代新角色的出现。所以,在后期修订时,为了让整个小说的文意通畅一些,我们在新人物出现的地方,往往加上一句,介绍来历,以免显得太突兀。 从目前生成的长篇来看,人物对话功能是单一的,完成三人以上对话还很困难,基本上是两个人之间的互动,且缺乏个性特征,难以表达出符合角色特性的观点和思想。我们或许可以利用AI Agent技术,将对话任务交由AI Agent自主完成,并不断演化。这种做法不仅能够提高工作效率,还能够让大模型专注于情节的生成。 通过以上工作,我们验证了整个大模型创意写作计划的后三分之一,即投入大量提示词之后,大模型能够生成线索整体连贯的内容,这一点,只有尝试过之后才能确认是行得通的。至于语义的流畅连贯,富有文学色彩,只能留待后面进行提升。 四 未来的工作:调适“智能”的比例 未来的工作主要包括四个部分,一是撰写大量提示词,并优化提示词的结构和质量。一旦我们能够生成足够多的提示词,就可以涵盖大部分情节,然后可以进一步精炼和提升这些提示词。二是建立提示词叙事模块和系统,可以智能组合并调用。我们计划将这些提示词分情节、分模块,并建立情节箱系统。这个系统位于用户和大模型之间,为未来的网络写手提供创作服务。三是进行大模型微调,提高文字表达能力。四是在以上工作的基础上,建立人工智能写作平台,提供自动写作服务。这一创新性平台将按照用户的创意生成文本,并利用提示词引导大模型进行文本创作,最终呈现出一部崭新的长篇小说。我们相信,这样的平台将为文学创作带来革命性的变革。 这些未来的工作具有一个明确的指向:调适人工智能与人类智能的参与比例,不断缩减人类的智能参与,将人力付出集中在智能创意上,而不是浪费在大量模式书写的忍耐上;提高大模型模式化写作能力,增大人工智能在创意写作中的比重。目前来看,人工的成分过多,后面的工作将不断减少人工成分,减少修改的工作量,让每一个对长篇小说写作感兴趣的人都能够通过人机融合的方式进行创作。一个勤奋的网络写手写作100万字的小说大约需要一年,通过机写方案,完成这一体量的作品大约一个半月,下一步的目标是将这一时间缩短为两周。 我们可以确定的是,面对大模型生成的提示词工程将以一种新的叙事学方式建立起来。这种新叙事学不同于以往人类写作者的传统叙事学,它是半人半机的,是人类叙事构架+智能细节写作,两者的高效融合将是未来的重点。大模型不断发展升级,我们还需要根据技术发展来不断更新这一叙事学框架。 这一方法的关键在于将一个大型复杂的任务拆解成若干个小任务,并让每个执行者专注于特定的任务。这种模块化的工作方式非常有效。为了实现这一目标,我们需要建立足够多的模块,并确保它们具有清晰的调用逻辑,可以高效完成自动调用任务。因此,我们后面的一个重要工作就是不断优化提示词叙事质量,探索多元化的提示词叙事工作,并建立提示词叙事学。 提示词叙事学此前从未出现过,只有当大模型可以进行文字写作之后,这一叙事学才成为可能。因此,提示词叙事学的基础是大语言模型。提示词是自然语句,但又不同于自然语句,而是大模型可以有效或高效执行的自然语句。从位置来看,提示词位于自然语言表达和大模型的自然语言理解、输出之间,起到桥梁作用。它是一种解释性语句,这一解释性依赖于其中介地位,它本身与自然语句存在相当大程度的重合,某种程度上具有较大迷惑性。中介即接口,两端是人的智能与人工智能。从根本上说,提示词的结构表征了一种新式的人机解释关系,这一解释关系所涵盖的是,人的智能以某种比例向人工智能的让步。 一部智能小说的结构需要注意涵盖本类型的绝大部分结构。我们将分析大量网络小说,获得提示词,从中分解出尽可能细致的结构。这些结构构成一个调用单元,可称之为情节封箱。所谓情节封箱,就像把大量不同物品放入一个集装箱中,我们将多条提示词放入一个固定情节箱体,使其在智能调用中发挥作用。在长篇小说中有许多封箱元素,我们希望从中找到具体的封箱方法。尽管我们会借鉴普罗普在民间故事叙事学结构方面的独特贡献,但现有的理论并不能解决所有问题。我们必须意识到,仅仅得出结论是远远不够的。更为关键的是,我们必须确保提示词能够适应大模型生成的需求。因此,还需要调整提示词,以发现在提示词封箱过程中,哪些句子组合在一起效果最佳。 在接下来的两年时间里,我们一方面要生成大量提示词,另一方面要进行实验,以确定哪些提示词进行情节封箱生成的文本质量更佳,这样,在未来的智能调用中就具有充分的多样性。最终,我们将拥有一种完全原创的结构,不再依赖任何外部结构。就像学习书法一样,起初总是模仿多家风格,一旦掌握了多种风格,就开始形成自己的风格。 在情节封箱完成后,我们需要建立用户交互系统,以保证用户的需求得到充分体现。我们假定用户为创作长篇小说的作者,他们通过交互系统,向系统提出详细需求,通常这些需求至少应包含30条关键信息,最多不超过50条,超过50条,就可能出现用户使用疲惫。这些要求通过系统转化为提示词的调用框架,这一框架进一步调用情节箱体,以形成系统性提示词,并将这些提示词投入大语言模型进行具体文本的生成。最终文本将通过人工进行修改,以去除某些不连贯或重复之处,也可以进行深度润色,这完成看用户需求。 生成工作可能在2天内完成,而修改工作大致需要2—4周时间。从整个系统平台的建设来说,是一个大的工程,但对于平台完成的成果而言,却可以省去写作者大量套路性写作的时间,是一件值得为之的事情。 五 作为工程的提示词及智能文学的未来 提示词工程看似简单,其实颇为复杂。我们的目标是基于这一原则,通过精心编写提示词以实现高效的快速投入。从本质上讲,这与传统的手工投入并无二致。我们现阶段是通过建立小型Demo调用API投入大模型的方式,以求速度的提升。后期随着创写平台的搭建,用户直接向创写平台发出指令,创写平台进行提示词的组合,并将提示词投入大模型进行生成,从而达成定制长篇小说的目标。这样的速度会越来越快。 从目前的提示词与生成文本的比例来看,大约4∶1或5∶1左右,也就是说,为了生成百万字的小说,我们需要撰写20万—25万字的提示词,如果这样的提示词的目标是生成一部小说,那么,很可能引发这样的质疑:这样做不是太费劲了吗?质量也没有那么好,何不直接写一篇小说呢? 的确,如果只考虑一件作品,那么,提示词工程是费力不讨好的,但是,以提示词工程进行智能写作的意义在于,提示词本身充满变量,哪怕一条提示词不改变任何变量,投入大模型产生的结果也不相同,一旦变量加入,提示词本身的产量是相当可观的,更何况我们进行了智能组合,这样的产出变化是极其可观的。从此考虑,提示词工程是一个值得深入开垦的事业。 从目前来看,大模型的能力并不能达到百万字级别的小说写作,哪怕KimiChat达到了200万中文的阅读量,通义千问达到1000万字的阅读量,但对于小说写作而言,依然还不能凭借自身能力完成3万字以上的作品,人工必须不断加入进行干涉,人工与智能结合,才能不断突破大模型自身的限制。所以,我们应该充分利用提示词工程的潜在能力,将100万字的写作任务分解为2000个500字的写作任务,建立控制方法,完成这一组合任务。因此,我们无须等待大语言模型的暴力升级,就能够解决长篇智能写作问题。 与大模型融合进行文学创作对于网络文学而言具有重要意义。网络文学创作应当全面进化,摒弃精英式写作方式。我们无需过分追求赶超文学大师的作品,这样的目标在短期间毫无意义。我们应关注中等水平的网络小说创作,这是大模型智能写作的方向。一旦达成中等水平的网络小说创作,更高的目标才有具有实现的可能性。 经过两三年的努力,我们将初步见到成效。届时,我们将建立一个交互性的智能写作平台。在这段时期内,中国的大模型将取得长足的进步,不断追赶国际大模型的水准。即使无法完全达到这一目标,大模型水平的提升也将为我们提供一个坚实的基础,支持智能写作实验的发展。我们对于在这个平台上实现高水平写作充满信心。到那时,基于这个平台的作品将远超现在的“中二”水平,达到中等层次的网络作家水平。 展望未来,大型语言模型有望依靠自身的力量完成长文本的生成,甚至能够根据需要创作长篇小说。但这需要将我们开发的智能平台模型纳入大型语言模型,使其成为其中的一个“细胞”,才可能完成进一步的智慧化。 我们已经步入智能社会,回避这一事实没有任何意义。在发展中不断调整工作方案才是根本。只有学会与人工智能共处共融,我们才能走向不可知的未来。◇◆ 注释 ①《文学计算工作坊通讯稿》,https://si-mian.ecnu.edu.cn/7f/0d/c19254a360205/page.htm。 ②《数字人文与文学计算工作坊及第二次文学计算工作会议通讯》,https://si-mian. ecnu. edu. cn / 16 / f3 / c19254a399091/page.htm。 ③参见凯文·凯利:《失控:全人类的最终命运和结局》,张行舟、陈新武、王钦等译,电子工业出版社,2016,第144-147页。 ④小说文本见微信公众号“后人类文化研究院”。 ⑤《AI创作的百万字小说能打败网文大神吗?》,https://www.thepaper.cn/newsDetail_forward_26722585。 据中国作家网-《南方文坛》 |
||
www.ChinaSNW.com|© 科学小说网 版权所有 2002-2011 |