幸运的是,我朋友少卿专门写了篇文章,大力推荐 Fellou。他说「Fellou 不是 AI 浏览器!更不是 Minus。」
我看到这标题的时候,马上意识到了 Fellou 不寻常 —— 能让一个沉下心来,从哲学角度思考 AI 的人如此激动,这工具肯定不简单。少卿还贴心地给了我一个 Fellou 邀请码,让我可以亲手体验一下。特别感谢少卿。
任务
有了邀请码之后,我能用 Fellou 做什么呢?我就想,既然手里有一个 AI agent 浏览器,不妨用它来做个关于 AI agent 的调研好了。我给 Fellou 布置的任务是:「调研一下 AI agent 给科研工作者带来的机遇与挑战」。
这个主题源自我两年前写的一篇论文,那时我们讨论的是 ChatGPT 对科研工作者的影响。
如今技术进步飞快,主流应用已经从对话式 AI 迈向了 AI agent 阶段,这种变化究竟能为科研工作带来怎样的好处和挑战?这确实是一个让我感兴趣的话题。
执行
任务提交之后,Fellou 首先开启了一个 "Deep Action" 的模式。简单来说,就是 AI 自己会先思考一下任务的复杂程度,然后做个规划,分步骤来完成任务。Fellou 给出的计划很清晰:先查询学术资源中关于 AI agent 在科研领域的应用,再分析中文科技媒体的相关报道,接下来检索国际前沿的 AI 研究动态,最后收集行业专家们的观点(这一步它是打算从 Medium 平台去找的)。
更有趣的是,你还可以自由地调整页面的样式,比如选择更详细的版本或者增加一些新的内容,例如加入更多科研案例、如何评估 AI agent 工作质量等。
我先不着急调整,咱们先来看看报告本身怎么样。
报告打开后是一个图文并茂的网页,内容很丰富。
验证
为了确保报告不是浮于表面的,我决定仔细检查每一个细节,并顺便结合自己的想法,和你聊聊 AI agent 到底能给科研工作带来哪些具体的帮助和问题。
概述
我们先来看报告的概述部分。首先,Fellou 告诉我们什么是 AI Agent,也就是人工智能代理。简单来说,它就是一个能自己感知环境、做出决策、还能自动执行任务的智能系统。比如在科研领域,它能帮我们做文献检索、数据分析、实验设计等等。这里它还贴心地引用了出处,你把鼠标放上去,就能看到原始来源,非常专业。
报告中也具体举例了 AI 如何帮我们提高数据处理能力。比如基因组学里,AI 可以分析数百万条基因序列;在材料科学研究中,通过 AI 的辅助,几周就能筛选出有潜力的新材料,传统方法可能得好几年。这确实令人振奋。
AI 还能破解跨学科交流的障碍,比如医生和工程师沟通困难时,AI 自动帮双方翻译术语,让团队合作效率提高了 40%。想想看,以前明明大家都说同一种语言,却互相听不懂,现在 AI 能自动把专业术语变成人话,是不是很赞?
至于提高研究质量与可重复性,报告认为 AI 能减少人为错误,更严格地遵循科学方法。不过我觉得这个得辩证地看待。如果用得不好,AI 也可能降低研究质量。因为现在做个「看起来像模像样」的研究比以前容易多了,所以我们对 AI 产生的内容,更得小心甄别才行。
挑战
说完机遇,咱们也得现实一点,看看 Fellou 在报告中指出的挑战有哪些。报告里用雷达图形象地展示了这些挑战,发现最突出的问题就是数据隐私和结果的可靠性。其次还有伦理问题、学习曲线、技术复杂性,以及成本投入。隐私问题咱们都懂,尤其医学、生物这些敏感领域,数据安全尤其重要。而结果的可靠性,其实主要取决于最终使用 AI 工具的人是否够谨慎。
报告特别指出 AI 系统可能会出现「幻觉」问题,也就是生成一些看似真实、但实际是虚构或错误的内容,这在科研领域可是大忌,稍不注意可能就引发严重后果。
再来看看 Fellou 给出的未来趋势预测。它提到几个重要趋势,比如 AI 工具会越来越专业化、定制化,针对不同学科提供精准服务;未来的 AI agent 还会拥有多模态交互能力,不光处理文字,还能处理图片、视频、音频等各种信息,甚至能和环境实时交互。
更厉害的是,AI agent 未来可能实现自主实验,形成「闭环」研究流程。这意味着初级科研人员可能需求会减少,毕竟很多过去需要手动打下手的工作,未来 AI 都能自己完成了,只要你明确输入输出目标,它就能可靠地自动执行任务。
报告同时强调了未来科研模式的改变,人类负责创造力、直觉和价值判断,AI 则专注数据处理和知识整合;科研门槛的降低则让更多有才华的人有机会参与高水平研究。比如,过去只有资金充足的大实验室才能做的研究,未来小团队甚至发展中国家的研究者都能通过 AI 参与竞争,这种科研平权的趋势非常令人期待。
不过,科研周期缩短、竞争加剧,对科研人员的挑战肯定也更大了。所以 Fellou 还特别建议,要把 AI 辅助科研能力纳入教育体系中,同时建立新的科研评价体系,强调创新性和社会影响;推广开源工具帮助资源不充足的地区;建立专门的 AI 科研伦理规范,确保技术健康发展。
建议
报告对研究人员给出了具体建议:一方面要把 AI 当作辅助工具,不要完全依赖;另一方面要系统学习 AI 工具的优缺点,根据实际需求构建自己的工作流。
此外,使用 AI 得到的重要结果必须反复验证;发表论文时,要坦率披露 AI 工具的使用情况,遵守学术伦理规范。
这里我就不得不多说几句了 —— 要让大家坦率披露 AI 使用,必须消除目前广泛存在的偏见:有人只要听说谁用了 AI 做科研,就会扣上一顶「投机取巧」的帽子加以鄙视。这种环境下,哪里有人愿意放心大胆披露自己的 AI 使用情况呢?但是,现在还有谁在科研活动中,真的一点儿都不使用 AI 吗?当别人利用 AI 翻译润色,让文章读起来地道如同 native speaker 手笔,你不使用就会在学术发表竞争中处于不利地位,对吧?有些导师把任务布置给研究生,提交上来的结果远超预期,难道是凭空得来的?但是很多人就是选择把这种「人人用 AI ,却都不好意思说」的拧巴,当成了「房间里的大象」。
营造一个更健康的 AI 协作环境,很是急迫。科研评价体系也该适时调整,比如明确披露 AI 使用情况可以增加文章发表或者获得基金资助的概率,大家才更能抛弃掉疑虑、愿意公开 AI 使用情况。