关于现在如何利用AI对长文进行摘要,主要有四种手段:
1. 直接上GPT-4 32K,基本上大部分文章可以一次性生成摘要,由于没有损耗,效果最好,当然价格挺贵的
2. 对内容进行截断,例如截取前N个字符,或者像字幕这样的,隔行读取,能生成摘要,但是效果会很受影响
3. 递归分段摘要:将长文拆成小段,分别对每一个小段摘要,最后将所有小段摘要合并在一起进行摘要,如果还是超过长度限制,继续递归分段摘要
4. 分段叠加摘要:分段后,先对第一段进行摘要,然后将摘要后的内容和第二段原文一起摘要,得到新的摘要后再和第三段原文一起摘要,依此类推。
这其中方案1用32K是最好的,但也是最贵的;方案2截断最经济,但是损耗严重;方案3效果折中,可以并行操作以提升速度,但分段摘要再合并会损失上下文,导致结果不够准确;方案4相对比方案3效果更好,但token消耗更多,并且只能串行无法并行。
还是需要根据自己情况灵活选择。
更新:
昨天我发布后,推特网友Stephan(twitter.com/stephancptmax)指出还有第四种Refine:🔗twitter.com/stephancptmax/status/1654108575294459911🔗
并提供了LangChain的文章链接作为参考:
网页链接
网页链接
已经更新原文。
1. 直接上GPT-4 32K,基本上大部分文章可以一次性生成摘要,由于没有损耗,效果最好,当然价格挺贵的
2. 对内容进行截断,例如截取前N个字符,或者像字幕这样的,隔行读取,能生成摘要,但是效果会很受影响
3. 递归分段摘要:将长文拆成小段,分别对每一个小段摘要,最后将所有小段摘要合并在一起进行摘要,如果还是超过长度限制,继续递归分段摘要
4. 分段叠加摘要:分段后,先对第一段进行摘要,然后将摘要后的内容和第二段原文一起摘要,得到新的摘要后再和第三段原文一起摘要,依此类推。
这其中方案1用32K是最好的,但也是最贵的;方案2截断最经济,但是损耗严重;方案3效果折中,可以并行操作以提升速度,但分段摘要再合并会损失上下文,导致结果不够准确;方案4相对比方案3效果更好,但token消耗更多,并且只能串行无法并行。
还是需要根据自己情况灵活选择。
更新:
昨天我发布后,推特网友Stephan(twitter.com/stephancptmax)指出还有第四种Refine:🔗twitter.com/stephancptmax/status/1654108575294459911🔗
并提供了LangChain的文章链接作为参考:
网页链接
网页链接
已经更新原文。
