前言
近期需要阅读的论文很多,偶然间在微博刷到许多人推荐科研利器和有道速读 。使用后的结论是不推荐使用,下面分别给出理由 。
使用&评价
网页版,无需安装任何东西,两款都支持中文 。
下面太长不看,只看这个表也够 。
有道速读
语言
中英文(给指令)
中英文
文件导入
本地/URL
本地
特点
1. 看起来很专业,实际可能是瞎话(有可能出现凭空捏造),也可能是有效信息(参考问答效果最后一问题)
2. 提取信息来源有限,集中于首页和最后一页
1. 生成速度略慢
【【试用科研好物】GPT辅助科研神器?AI助力科研?ChatPDF、有道速读】2. 翻译全文,涉及数学符号的句子翻译起来很难看
3. 回答冗余,来源比较可靠
支持URL更方便,界面类似于,三段式 。跟自己看论文的方式差不多,先看abs然后intro最后一段获取信息,英文不好的小伙伴还不如直接用翻译器 。
缺点:
看起来很专业,实际是瞎话(有可能出现凭空捏造)提取信息来源有限,集中于首页和最后一页
有道速读
缺点:
生成速度略慢涉及数学符号的句子翻译起来很难看问答助手的回答比较冗余
只支持本地导入,本重度用户不适 。界面如下图所示,有道速读更像一个翻译器,直接帮你翻译好了所有的句子,有些断句让人困惑!
有道速读的问答似乎能给出一些有用的回答,看起来不是完全照搬的翻译,应该是几段话生成的 。另外,生成速度比略慢 。
细看问答效果
问两个助手相同的问题:
回答如下:
问题有道速读简评
这篇文章的研究背景是什么
这篇文章的研究背景是针对-based模型的推理加速问题 。虽然-based模型在自然语言处理任务中表现出色,但是它们通常需要大量的计算资源和时间来进行推理,这限制了它们在实际应用中的使用 。因此,本文提出了一种名为MPEE(多角度早期退出)的框架,旨在通过多角度早期退出算法来加速-based模型的推理过程,从而提高其效率和性能 。该框架通过使用水平和垂直两个角度的早期退出算法,以及加权自蒸馏技术和重复利用分类器和注意力机制等技术,实现了更高效的推理加速 。
这篇文章的研究背景是预训练语言模型在自然语言处理任务中表现出色,但是其计算消耗和推理延迟较高,限制了其在资源受限设备上的应用和时间敏感场景中的应用 。文章的研究目的是提出一种统一的多角度早期退出框架,以显著降低计算成本并提高加速推理速度,同时保持较高的性能 。文章研究的是基于的预训练语言模型 。
有道速读的回答更加简洁,此处更胜一筹,但是都生成了除研究背景之外的信息 。
这篇文章的方法是什么
这篇文章提出了一种名为MPEE(多角度早期退出)的框架,旨在通过多角度早期退出算法来加速-based模型的推理过程,从而提高其效率和性能 。该框架通过使用水平和垂直两个角度的早期退出算法,以及加权自蒸馏技术和重复利用分类器和注意力机制等技术,实现了更高效的推理加速 。具体来说,垂直角度使用重复利用EE分类器内存和加权自蒸馏技术来增强EE分类器的性能;水平角度使用重复利用类别注意力内存来强调信息丰富的令牌,并通过加权融合截断信息较少的令牌,从而降低计算量 。最后,水平和垂直EE被统一起来,以获得更好的性能和效率之间的平衡 。
这篇文章提出了一种统一的水平和垂直多角度早期退出(MPEE)框架,用于加速基于的模型的推理过程 。该方法通过垂直架构使用回收的EE分类器内存和加权自蒸馏来增强EE分类器的性能,通过水平视角使用回收的类注意力内存来强调信息丰富的令牌,并通过加权融合截断信息较少的令牌,从而减少计算量 。该方法同时在水平和垂直方向上进行早期退出,以在性能和效率之间取得更好的平衡 。实验结果表明,与现有的竞争方法相比,MPEE可以实现更高的加速推理并保持竞争性能 。