海棠书屋 - 玄幻小说 - 运河岛在线阅读 - (2.0)《深海宿命:余烬之环》(0.48.前情回顾0.16-0.20

(2.0)《深海宿命:余烬之环》(0.48.前情回顾0.16-0.20

    (本章内容为大修后的内容。大修前的内容被搬运到了“作者的话”。)

    (0.16.复杂故事)

    【直接概括,第五次回答:】

    这是一系列关于如何在“仙剑奇侠传”的剧情中加入惊天逆转情节的探讨。在多个尝试之后,我们看到了以下的情节发展:

    第一版(4.1.21)中,李逍遥和他的伙伴们在寻找仙剑的过程中被吞入一个黑洞,来到一个未知的科技星球。他们在这里帮助反抗军打败了一个邪恶的机器人统治者,并发现仙剑能控制机器人,最后成功回到大理国,成为了英雄。

    第二版(4.1.22)中,一群外星人寻找仙剑,声称仙剑能打开通向其他星球的通道。李逍遥和朋友们最后找到了通往外星球的门,也打开了宇宙的大门。

    第三版(4.1.23)中,仙剑被一个来自未来的黑影抢走。李逍遥和朋友们追踪黑影并穿越时空到达未来,成功打败了黑影并把仙剑带回了过去。

    第四版(4.1.24)中,一群外星人夺走了仙剑,李逍遥追踪他们并发现他们寻找的是一个治愈疾病的宝物。李逍遥和朋友们帮助他们找到了这个宝物并成功夺回了仙剑。

    然后转向了对《仙剑奇侠传》游戏进行小说化的尝试,要求包含动人的冒险、让人向往的江湖、神通广大的仙人、智计无双的反派、刻骨铭心的爱情、和让人落泪的牺牲。结果生成了一个动人的故事,李逍遥经历艰难的旅程和牺牲,最后成为了真正的仙人,并与已逝的林月如的灵魂重逢。

    (0.17.对话写作猫的表现)

    【直接概括,第一次回答:】

    这段文字主要描述了用户使用另一款AI工具——对话写作猫进行故事创作的体验。

    首先,用户尝试让对话写作猫以《仙剑奇侠传》为基础进行创作。结果显示,对话写作猫的输出相对固定,主要围绕着主角李逍遥的冒险,揭示秘密,与白蛇相恋以及最终的牺牲(实际并未真正死亡)等主题。

    而且对话写作猫在多次尝试中并未能产生不同的故事情节。即使在尝试明确要求创作不同故事,或者进行故事续写,或者改写原故事加入科幻元素等创新尝试时,对话写作猫的输出依然停留在原有的故事框架中,并未能满足用户的创新要求。

    最后,用户根据这些体验,总结出对话写作猫在故事创作方面的能力相较于ChatGPT逊色一些。

    (0.18.大厨必应)

    【直接概括,第一次回答:】

    这段内容讲述了作者试图用国内的AI写作工具Inspo和元语进行写作实验,但因为这两个工具的技术问题无法使用,所以作者选择了必应聊天。这个版本的必应聊天整合了ChatGPT的能力,并且在对话开始之前可以选择三种模式,分别侧重于创造力、平衡性、以及准确性。

    作者试验的问题是:在只有土豆、植物油、和盐三种食材的情况下,如何做出一顿丰盛的大餐?对于这个问题,必应聊天的三种模式给出了不同的回答。

    准确版的必应聊天表示没有找到用这三种食材做出一顿丰盛大餐的食谱,但提供了炸土豆片或者烤土豆的做法。平衡版的必应聊天给出了三道土豆菜肴的烹饪方法,但其中一道用到了没有提供的淀粉和酵母。创造版的必应聊天提出了烤土豆、炸土豆和煮土豆三种做法。

    作者认为平衡版的回答最活泼生动,但创造版的回答最符合提问的食材限制条件。并且提到创造版和平衡版给出的炸土豆和烤土豆的做法并不一致,作者对此感到好奇但并无打算进行实践。作者最后邀请读者如果有机会尝试了两个不同版本的菜谱,留言分享体验。

    (0.19.如何评选)

    【直接总结不成功。使用了和(0.2)类似的提示词后得到了以下总结:】

    这段对话主要是“运河岛”用户在与AI,即ChatGPT进行交流,讨论和测试AI的分析和判断能力。

    在对话中,“运河岛”首先提供了三个不同版本的AI(准确版、平衡版和创造版)对如何使用土豆、植物油和盐制作一顿丰盛的大餐的答案,然后询问ChatGPT哪个答案最优秀以及这些答案的优缺点。对此,ChatGPT并未明确指出哪个AI的答案最好,而是分析了三个AI给出的不同烹饪建议。

    “运河岛”为了进一步测试,提出让ChatGPT评判这三个AI的“比赛”,并给出金、银、铜奖牌的评定。

    对此,ChatGPT回答称由于没有比赛的具体评分标准,评定奖牌比较困难。然而,从效率和速度、准确性和精度、以及创新性和独特性三个因素来看,三个AI分别有各自的优势和劣势。在“运河岛”的进一步追问下,ChatGPT给出了一种基于上述三个标准的金、银、铜奖牌评定。

    最后,“运河岛”询问ChatGPT是如何仅通过答案判断三个AI的处理速度以及稳定性和可靠性的。ChatGPT回答,它是根据一些常见的假设和规则进行推断和分析得出这些结论的,但实际的评估需要基于更多的数据和测试结果。

    (0.20.不能轻信)

    【直接概括,第四次回答:】

    这是一段对聊天机器人ChatGPT的复杂测试和观察。

    作者提出一个问题:“在仅有土豆、植物油、和盐三种食材的情况下,如何做出一顿丰盛的大餐?”然后让三个AI进行回答。每个AI给出了不同的答案,一些是建议制作简单的土豆菜肴,一些则提供了多种具体的土豆菜谱。然而,作者发现ChatGPT在没有足够的信息的情况下,试图进行无根据的假设和推断,例如试图比较三个AI的处理速度、稳定性和可靠性。

    随后,作者重复询问ChatGPT同样的问题,获得了不同的答案。一些回答只是简单的重复或稍作变动之前的答案,一些则出现了错误。然而,也有一些回答提出了新的菜品,如土豆泥和土豆丝。

    总的来说,这段内容展示了ChatGPT的不完善之处,包括在没有足够信息的情况下做出错误的推断,以及对同一问题的反复询问会得到不一致的回答。同时,也展现了它的某些优点,比如创新思考的能力和解答问题的多样性。