YonghongLiu的个人博客分享 http://blog.sciencenet.cn/u/YonghongLiu

博文

几个科技巨头进场ChatGPT的例子

已有 1750 次阅读 2023-6-8 19:53 |个人分类:ChatGPT|系统分类:海外观察

几个科技巨头进场ChatGPT的例子

武汉理工大学:刘永红

Fig7.jpg

在科技,有关ChatGPT的新闻报道是络绎不绝的,使人应接不暇。我写过两篇这方面的短文,再拿起笔来写ChatGPT有一点犹豫不决。然而,ChatGPT一鸣惊人的成功以及它在公众媒体上持续几个月的爆火,着实让我印象深刻,部分地是由于它重视以人为本。今日不谈ChatGPT妙笔生花,也不谈这个AI技术潜在危险了。谈谈几个实例。

 1. 原生态

这里,“原生态”指的是专门研发聊天机器人基础软件。我举下例:OpenAI成立于2015年,是聊天机器人ChatGPT的开发公司,旗下拥有大语言模型GPT-3以及多模态模型GPT-4等产品。当地时间61日,据营销机构VezaDigitalOpenAI每月活跃用户数量飙升至近10亿,3月共有8.47亿用户访问,跻身全球访问量最高网站Top20。仅几个月时间chat.openai.com就获得了17.6亿次(据SimilarWeb统计4月份)超过了BingDuckDuckGo等其他国际搜索引擎、纽约时报和CNN等知名网站的流量,甚至有人将其称为“第二个谷歌”。

竞争格局:大型聊天机器人具有多种性格可供用户选择,具有专家水平的服务。例如,不甘示弱的谷歌,内部已经有超过70个产品团队正在使用PaLM2构建产品,包括分别针对安全知识和医疗知识微调而成的Sec-PaLMMed-PaLM2对于具有思维链prompt或自洽性的MATHGSM8KMGSM基准评估,PaLM 2的部分结果已超越GPT-4中美大模型差距已明显拉大,令人担忧!

2. 个性化

个性化不然理解,就是拥有自己特质,独具一格。我举下例:Intel推出Aurora genAI模型就运行在Aurora超算上,具有1万亿参数的超强能力,目前ChatGPT 3.5模型的参数规模说是1750亿,意味着Aurora genAI模型至少是它的5倍,不过它跟ChatGPT不同,主要用于科学计算领域,包括生物学、癌症、大气科学、天文学、高分子化学等领域。该模型还有很大的发展空间,因为美国Argonne阿拉贡国家实验室开发的Aurora超算的性能达到了200亿亿次,是当前TOP500超算冠军Frontier2倍,后者是全球第一台百亿亿次超算。

竞争格局:本来科学计算涉及的领域非常广泛,因此高校或科技公司的研究团队在这方面是大有可为的。例如,新加坡国立大学研究者推出了Goat模型,称该模型“专门用于算术问题”。其结果:在对LLaMA模型进行微调后,Goat在算数上实现了比GPT-4更高的准确度与更出色的性能。又例如,武大版ChatGPT大模型CheeseChat,可提供日常咨询、学业帮助等。它以中文Alpaca-7B基础模型为底座,在累计80G文本数据上进行了Token预测训练,包括百度百科、武汉大学相关语料信息和社交媒体语料。可以说,有个性不香吗!

3. 插件化

在插件功能加持下,你对技术的信赖度变高了。我举下例:微软将ChatGPT插件引入到新Win11系统中,并免费用,让用户可以在微软的各种协同驾驶产品中使用人工智能聊天机器人,提高沟通效率和质量。值得关注的是,OpenAI将向所有ChatGPT Plus用户推出网络浏览和插件功能。允许ChatGPT访问互联网并使用70多个第三方插件。

竞争格局:先解释什么是插件,简单说,它是一种遵循软件规范的应用程序,具体指接口程序,其目的在于增强原系统的功能。但只能捆绑在规定系统的战车上,不能单独行动,它在运行时要调用原系统的函数库或有关的数据。例如,ChatGPT插件已经让Expedia帮其安排去东京的行程,会自动帮忙安排好机票、酒店、游玩、租车等服务,甚至出现了商品卡片,点击直接将参数带到官网一键预定,同时这里也具备交互以及上下文记忆的功能,相比自己去搜索要方便不少。无论是程序开发者,还是寻求ChatGPT帮助的人,请在插件处欢歌吧!

哦,ChatGPT,越来越多的研究人员借助你展示AI无限可能!




https://wap.sciencenet.cn/blog-3519678-1391047.html

上一篇:为了人类创新的高潮
下一篇:其实,在数学家头脑里,数学是一种创造性思考方式
收藏 IP: 119.98.143.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-21 18:45

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部