用chatgpt润色文章会查出来吗 分享几个高质量翻译英文文章的思路
前言
现在的翻译工具已经可以应付很多场景,我这里将翻译工具分为两类,一类是各个厂商的翻译工具,如百度翻译、有道翻译、搜狗翻译、必应翻译、谷歌翻译、DeepL翻译等,另一类是大模型翻译,如,,Meta Llama 3等。各家的厂商翻译效果差距并不是很大,对比结果可以看后文。
一直困扰我的翻译难点是专业领域的翻译。比如进入到强化学习领域后 ,发现各家厂商的翻译效果就不太尽如意了。再比如翻译的排版效果,翻译的文字里面如果有表格,行间公式等,翻译结果是乱码的,这怎么办。以及翻译结果的保存问题。这里分享几个我近期解决这些难点的思路。
文章结构安排如下:
前言
思路1-翻译工具+窗口分屏or知云、小绿鲸
思路优缺点
思路2-使用翻译插件
思路优缺点
思路3-使用开源项目——GPT
思路优缺点
思路4-有点笨但感觉还不错
步骤
思路优缺点
不同翻译工具翻译效果比较
不含公式翻译
带公式的整篇文档翻译
结论
思路1-翻译工具+窗口分屏or知云、小绿鲸
方法是用诸如上面提到的这些翻译工具,然后使用窗口分屏(窗口分屏为+方向左右键),比如的网页在左(也可以是百度翻译,谷歌翻译等网页),需要翻译的文档在右,需要翻译的段落粘贴到左边进行翻译。
的一个好用之处是可以 ,就是预定义口令,这样你新打开一个窗口就不用反复输入口令了,你可以在里面输入一些专业术语,来实现更精准的翻译。方法也很简单,点击左下角头像,有个 。翻译还有一个好处,登录后可以保存历史记录,可以建一个新的会话,以后需要回顾这篇文章的翻译,直接点看历史会话也行。
窗口分屏翻译效果
自定义指令
或者使用小绿鲸,知云等软件,实现的效果跟上面差不多,也是可以自定义翻译引擎的。不过我用管理文献,并不喜欢换到这些软件。
知云翻译效果思路优缺点
这种思路的优点是实现起来比较简单。缺点是翻译结果不太好保存,且公式等排版不好。对于我这种看了后面,又忘了前面的人不太友好。
思路2-使用翻译插件
这里介绍两个我浏览器上的翻译插件,一个是沙拉查词,网址
一个是沉浸式翻译网站
沙拉查词可以配合使用,适合翻译文档内的个别不会单词,翻译整篇文档效果不是那么好,效果如下。
配合翻译效果
沉浸式翻译的具体使用教程可以参考B站的一个UP主的介绍。网址
特色是可以翻译本地文档(这点挺良心的,因为各个厂商的文档翻译一般都会有限制)和翻译Arxiv文章。
沉浸式翻译翻译本地PDF效果
“沉浸式翻译"翻译arxiv文章效果思路优缺点
这种思路的优点是同样是实现起来比较简单,且翻译arixv文章时候公式图表排版效果比较好,翻译结果可以保存为html格式或者打印为pdf。缺点是翻译效果不太好,一般不考虑上下文翻译,比如会将翻译为抽象的。
思路3-使用开源项目——GPT
截止现在,这个项目在的star数量达到了惊人的57.5K。链接-husky/: 为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验。()
部署教程【】从0开始教你搭建本地GPT-,助力学术研究_哔哩哔哩
Arxiv翻译教程迄今为止最好的开源论文翻译工具。直接读中文版论文_哔哩哔哩
本地初始页面
arxiv翻译效果
当然这个项目还有很多好玩的玩法,比如本地使用,英语学术润色等。
英语润色效果
思路优缺点
这种思路的优点是综合效果不错。缺点是部署比较麻烦,涉及/的基本使用,如果没有环境部署的经验,还是比较困难的,还有就是环境部署好后需要安装配置(6GB+)。不过也有相关大佬配置好的网站,可以直接使用,我试了一下,效果可能没本地那么好,不过也给了我们多了一种选择。
学术版gpt已经支持自带术语库翻译-教程 - 知乎
配置好的网站:
思路4-有点笨但感觉还不错
这个方法也是我最近在用的,可能比较笨,但我觉得效果还不错。
介绍一下Doc2x这个网站,这个网站是高中老班在朋友圈发的,起初还不在意,用过发现真心不错,识别出来的效果很好,是目前我用过的免费的最好的识别软件,双栏文章,公式识别得都很好。现在是免费能够识别500页,不知道后续会怎么收费。不过软件前期还在测试,为了隐私,建议识别已发表的文章。
还需要有编辑器,我这里用的是。
Docx2页面
识别效果,已编译步骤
去Doc2x这个网站,将PDF导出为格式。Doc2x网址
2.识别好后,我们就可以打开我们的,让其翻译为中文。我的口令如下
What would you like to know about you to ?
你是一名从事强化学习翻译的专业人员,请结合相关专业术语,将我所给的所有句子,段落翻译为中文。以下为可能用到的词汇:
agent/agents (智能体)
Environment(环境)
……
How would you like to ?
以markdown格式输出,行间公式以$$……$$格式输出,公式需要经过渲染。需要完整输出图片链接,文章标题,公式序号等。图片注解也需要翻译,图片链接也需要以markdown格式输出,不要偷懒,完整输出。
翻译效果
3.同目录新建一个文档,将的输出粘贴到新md文件中。
最终效果思路优缺点
这种思路的优点是综合效果不错。缺点是需要学一下语法(很简单),过程也有点啰嗦,需要不断复制粘贴,不过我觉得这个过程也在加深你对这篇文章的理解。
不同翻译工具翻译效果比较不含公式翻译
下面是几个翻译工具对一段摘要的翻译。文献原文[2103.01955] The of PPO in , Multi-Agent Games ()
摘要原文 (PPO) is a on- but is less than off- in multi-agent 。 This is often due to the that PPO is less than off- in multi-agent 。 In this work, we study the of PPO in multi-agent 。 We show that PPO-based multi-agent in four multi-agent : the -world , the multi-agent , , and the , with and any - or 。
, to off- , PPO often or in both final and 。 , , we and that are to PPO's , and give these 。 Our show that when using these , PPO-based can be a in multi-agent 。
翻译工具翻译结果
百度翻译 (智能识别出来-传统机器翻译.通用领域, AI大模型翻译.基础版,不过这个非会员每天只有三次翻译机会)
近端策略优化(PPO)是一种普遍存在的策略强化学习算法,但在多智能体环境中,其利用率明显低于非策略学习算法。这通常是因为人们认为,在多智能体系统中,PPO的样本效率明显低于非策略方法。在这项工作中,我们仔细研究了PPO在多智能体协作环境中的性能。我们表明,基于PPO的多智能体算法在四个流行的多智能体测试台中取得了令人惊讶的强大性能:粒子世界环境、星际争霸多智能体挑战、谷歌研究足球和挑战,只需最少的超参数调整,无需任何特定领域的算法修改或架构。重要的是,与有竞争力的非策略方法相比,PPO通常在最终收益和样本效率方面都能获得有竞争力或优越的结果。最后,通过消融研究,我们分析了对PPO经验性能至关重要的实施和超参数因素,并就这些因素提出了具体的实践建议。我们的结果表明,当使用这些实践时,简单的基于PPO的方法可以成为合作多智能体强化学习的有力基线。
有道翻译 (以上翻译结果来自有道神经网络翻译(YNMT)·通用场景)
近端策略优化(PPO)是一种普遍存在的策略上强化学习算法,但在多智能体环境下,它的使用率明显低于策略外学习算法。这通常是由于相信PPO在多代理系统中的样本效率明显低于非策略方法。在这项工作中,我们仔细研究了PPO在合作多智能体设置下的性能。我们展示了基于ppo的多智能体算法在四种流行的多智能体测试平台(粒子世界环境、星际争霸多智能体挑战、 和挑战)中实现了惊人的强大性能,只需要最小的超参数调整,并且没有任何特定领域的算法修改或架构。重要的是,与竞争性的非政策方法相比,PPO通常在最终回报和样本效率方面都具有竞争力或更好的结果。最后,通过消融研究,我们分析了影响PPO实证绩效的关键实施因素和超参数因素,并针对这些因素提出了具体的实践建议。我们的结果表明,当使用这些实践时,简单的基于ppo的方法可以成为协作多智能体强化学习的强大基线。
谷歌翻译
近端策略优化(PPO)是一种普遍存在的同策略强化学习算法,但在多智能体设置中,其利用率明显低于离策略学习算法。这通常是因为人们相信 PPO 的样本效率明显低于多智能体系统中的离策略方法。在这项工作中,我们仔细研究了 PPO 在协作多智能体环境中的性能。我们证明,基于 PPO 的多智能体算法在四个流行的多智能体测试平台中实现了令人惊讶的强大性能:粒子世界环境、星际争霸多智能体挑战赛、 和 挑战赛,只需最少的超参数调整,并且无需 任何特定领域的算法修改或架构。重要的是,与竞争性的离策略方法相比,PPO 通常在最终回报和样本效率方面都取得了有竞争力或更好的结果。最后,通过消融研究,我们分析了对 PPO 实证性能至关重要的实现和超参数因素,并针对这些因素给出了具体的实用建议。我们的结果表明,在使用这些实践时,简单的基于 PPO 的方法可以成为协作多智能体强化学习的强大基线。
DeepL翻译(通过(免费版)翻译)
近端策略优化( ,PPO)是一种无处不在的策略强化学习算法,但在多机器人环境中,它的使用率远远低于非策略学习算法。这通常是由于人们认为 PPO 在多代理系统中的采样效率明显低于非策略方法。在这项工作中,我们仔细研究了 PPO 在合作多代理环境中的性能。我们的研究表明,基于 PPO 的多代理算法在四种流行的多代理测试平台(粒子世界环境、星际争霸多代理挑战赛、谷歌研究足球赛和花木挑战赛)中取得了令人惊讶的强大性能,而且只需调整最小的超参数,无需任何特定领域的算法修改或架构。重要的是,与具有竞争力的非策略方法相比,PPO 在最终收益和样本效率方面通常都能取得具有竞争力或更优越的结果。最后,通过消融研究,我们分析了对 PPO 经验性能至关重要的实施和超参数因素,并针对这些因素提出了具体的实用建议。我们的研究结果表明,在使用这些实践时,基于 PPO 的简单方法可以成为合作式多代理强化学习的有力基线。
大模型翻译(以为例,给了口令:你是一名从事强化学习翻译的专业人员,请结合相关专业术语,帮我翻译下面这段话为中文:)
(PPO)是一种普遍使用的基于策略的强化学习算法,但在多智能体环境中的使用明显较少,相比离策略学习算法而言。这通常是因为人们认为在多智能体系统中,PPO的样本效率明显低于离策略方法。在这项工作中,我们仔细研究了PPO在合作多智能体环境中的性能。我们展示了基于PPO的多智能体算法在四个流行的多智能体测试环境中取得了惊人的性能:粒子世界环境、星际争霸多智能体挑战、 以及花火挑战,而且几乎没有进行超参数调整,并且没有进行任何领域特定的算法修改或架构设计。重要的是,与竞争对手的离策略方法相比,PPO在最终回报和样本效率方面经常取得竞争性或更优秀的结果。最后,通过消融研究,我们分析了对PPO经验性能至关重要的实现和超参数因素,并针对这些因素提出了具体的实用建议。我们的结果表明,在使用这些实践时,基于简单PPO的方法可以成为合作多智能体强化学习中强有力的基准。
off-应该译为离线策略,multi-agent应该译为多智能体
上述的翻译结果都还行,反而是很受大家欢迎的DeepL效果不太行,把multi-agent翻译为了多代理。有些翻译工具可以自定义术语,不过术语数量有限制(一般10条以内)。
带公式的整篇文档翻译
DeepL翻译效果,每月有三次限制
DeepL翻译效果
有道翻译,仅试看一部分
有道翻译效果
百度翻译,提示我剩余字数不足,故无翻译效果图
沉浸式翻译-arxiv翻译
沉浸式翻译效果
GPT-翻译
GPT-翻译效果,项目bug,3.3节未翻译
第4种思路翻译效果结论
各种翻译工具各有千秋,我比较喜欢第4种思路,因为实现或者翻译效果都很不错。且可以编辑,导出为Word,不用一个个手打公式,对于组会汇报还是比较有用的。