查看原文
其他

实战Elicit, 让你惊艳的AI学术研究工作神器(一)

小小的CC 门童靖博士 2024-04-14

Systematic Literature Review绝对是每个学术研究工作者的必经之路,顺利完成一篇SLR才能代表你真正了解该领域,成为该领域的专家,并且知道在该领域有哪些Gap值得后来者继续研究。

当然,做过的都知道第一次做这事会有多痛苦,几个月、半年、甚至一年出一篇SLR都是正常操作~

毕竟里面涉及到设定关键词、搜索海量的文献(基本1K起步吧),然后速读、过滤,略读、筛选,泛读、摘选,详读、精选,定义关键问题、设定相应字段、提取具体信息、然后基于这些文章和信息再做分类、分析、批判、预判、展望、结论...

是不是觉得吃力不讨好,费事又费劲。因此,利用好各种AI工具来提升效率,实在是太重要了,这里我们从Elicit开始,看看这些神器能够给你带来怎样的惊喜~



最近埋头重点攻关了两篇Paper,所幸两篇都被杂志Accept了!好些天没有在公众号文章了对于这个更新文章的节奏还望大家海涵

好了,光说包涵肯定不行,所以带来一些实战的干货分享给大家,不然都不好意思在此吆喝。


此前有发过一篇文章,关于《7款基于ChatGPT的AI科研神器与你分享!》,其中谈到了Elicit,一款基于AI语言模型的自动化研究的神器。也是因为近日同门几个在做研究写文章时,一致对这个工具赞叹有加。

听人家说的,不如自己试一下,于是,我回过头基于研究问题再使用一下这个工具,看看对实际的研究工作效用如何。



Elicit 使用语言模型来帮助你自动化研究工作流程,例如部分文献综述

Elicit 可以在没有完美关键字匹配的情况下找到相关论文,针对你的问题总结论文的要点,并从论文中提取关键信息

虽然通过研究回答问题是 Elicit 的主要关注点,但还有其他研究任务有助于头脑风暴、总结和文本分类。下面是Demo:



Elicit 使用 GPT-3 等语言模型来自动化研究人员的部分工作流程。目前,Elicit 中的主要工作流程是用于 Literature Review如果你提出问题,Elicit 将在易于使用的表格中显示相关论文和关于这些论文的关键信息摘要。Elicit大致的工作逻辑如下图:



一. Sign up and Login

登录之后,你可以提出你的研究问题~



二. 提出一个研究问题

这里就提出“数据是如何对机器学习的模型产生影响”的为例。

How the IoT data affect machine learning models?



三. 检查一下反馈结果

反馈结果分为几块:


3.1 Elicit的反馈信息和自己提出的问题相关吗?

这篇文章,我们先从左上角开始,它总结了4篇相关文章如下,主要是为了想以最快速度获得相关文章和结论的同学们(说白了,就是最大程度地偷偷懒~):



由于该功能属于Beta测试过程,所以,选出的文章需要自己去验证是否相关。



与此同时,你也可以根据它提供的反馈,进行评价,以便它的模型优化。

点击其中的第一篇文章:

就我提出的问题来看,仅从第一篇文章即可得知是相关的,首先文章提到了数据,提到了模型,也提到了数据是怎样影响模型的,同时提出并实践了不同的机器学习和深度学习技术下的模型的结果比较。

因此,这个测试表明Elicit给出的文章是相关的!



3.2 Elicit总结的信息可靠吗?

大致确认其中第一篇的内容,意思是机器学习算法中决策树用于IoT数据执行分类任务最佳,此外深度学习中ANN和CNN能够产生更有趣的结果。

The papers suggest that machine learning models can be used to analyze IoT data. Vakili 2020 evaluates the performance of 11 machine and deep learning algorithms for IoT data classification and found that Random Forests performed better than other machine learning models, while among deep learning models, ANN and CNN achieved more interesting results.

进一步点击Vakili 2020,确认它的结论是如何得出的呢?点击Source,这里就对应比较清楚了

结论是:Random forests performed better than other machine learning models.

来自原文中的内容:This paper evaluates the performance of 11 popular machine and deep learning algorithms for classification task using six IoT-related datasets. The comprehensive experiments indicated that, considering all performance metrics, Random Forests performed better than other machine learning models, while among deep learning models, ANN and CNN achieved more interesting results.

因此,这个Abstract summary本质上就是基于原文中Abstract的主要实验以及结论,并使用语言模型进行处理得出的。



当然还包括了如下一些信息,比如用了哪些Metrics来验证:

是否含有experimental验证:

因此,这个测试表明Elicit给出的信息是可靠的!



3.3 Elicit给出的作者观点靠谱吗?

Elicit总结了作者的一些鲜明观点:

比如说仅仅只用Accuracy来判断模型的有效性是不够的

此外,Data当中的偏差以及分类不平衡的问题,也会对模型的训练产生负面影响。

还有就是,虽然很多Study已经采用了机器学习和深度学习技术,但是仍然有很大的空间来对效果进行提升

当然不能忘了作者所应用的相关文献,他的观点也是基于这些文献才得出的:

读到这,相信大家应该能够想到了...没错,该文章作者的观点,或者说作者写这篇文章的动机不就在此吗?此外,其他作者的主要观点也都一一亮相了,那么,是不是SLR的直接素材就有了?懂的都懂~



最后,左下角有个对话框,你可以针对上述问题,进一步进行确认:

这篇文章的重要发现是啥?

作者是通过什么方法发现的结论?

这篇文章建议未来的研究方向是什么?



以上,带大家大致过一遍最基本的基于摘要的信息分析和总结,在你提出了自己的研究问题之后,基于Elicit左上角模块所提供的信息,看它是否抓住了你。

对应反馈的信息,主要确认几点:

1. 和你提出的问题是否相关?基于你想了解的问题判断;

2. 如果相关,提供的信息是否可信?基于原文判断;

3. 作者的观点和批判是否可信?基于原文判断;

更多的具体内容,我建议大家就自己的研究问题,尝试通过Elicit提问,然后针对反馈的信息具体解读和分析~

如果没有收获,说明你还不够认真~

后面的文章,会继续探讨其他的反馈信息。



参考文献:

[1] https://elicit.org/

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存