Nvidia发布可以在PC上本地运行的AI聊天机器人Chat with RTX

Nvidia发布了一款名为Chat with RTX的早期版本应用,这是一款让你在个人电脑上运行的AI聊天机器人。你只需提供YouTube视频链接或者你自己的文件,它就能创建摘要并根据你的数据给出相关答案。它完全在个人电脑上运行,你只需要拥有至少8GB显存的RTX 30或40系列GPU。

尽管Chat with RTX应用的界面还有一些粗糙,但我已经看到了它在数据研究中的巨大价值,尤其是对于需要分析大量文件的记者或其他人士。

Chat with RTX可以处理YouTube视频,你只需输入URL,就可以搜索特定的提及或总结整个视频。我发现这对于搜索视频播客非常理想,特别是在过去一周中,寻找有关微软新Xbox策略转变的特定提及。

Chat with RTX在搜索YouTube视频时并非完美无缺。在试图搜索一些YouTube视频的文字记录时,Chat with RTX下载了完全不同视频的文字记录,这显然是早期演示中的一个错误。

Nvidia发布可以在PC上本地运行的AI聊天机器人Chat with RTX

当它正常工作时,我能在几秒钟内找到视频中的引用。我还为Chat with RTX创建了一份FTC与微软文件的数据集进行分析。当我去年报道这个案件时,快速搜索文件常常让我感到压力山大,但Chat with RTX让我几乎能在我的电脑上瞬间查询到它们。

Chat with RTX也很擅长从在审判中揭示的内部文件中总结出微软整个Xbox Game Pass的策略。

此外,我发现这个工具在扫描PDF和核查数据时也很有用。微软自家的Copilot系统在Word中处理PDF的能力不强,但Nvidia的Chat with RTX却能轻易地提取出所有关键信息。回应也几乎是瞬间的,没有使用基于云的ChatGPT或Copilot聊天机器人时通常会出现的延迟。

Chat with RTX的主要缺点在于,它真的感觉像一个早期的开发者演示。Chat with RTX会在你的电脑上安装一个Web服务器和Python实例,然后利用Mistral或Llama 2模型查询你提供的数据。然后,它利用Nvidia的RTX GPU上的Tensor核心来加速你的查询。

Nvidia发布可以在PC上本地运行的AI聊天机器人Chat with RTX

Chat with RTX的安装过程在我的电脑上花了大约30分钟,我的电脑是由Intel Core i9-14900K处理器和RTX 4090 GPU驱动的。该应用程序的大小接近40GB,Python实例占用了我电脑64GB可用内存中的约3GB。一旦运行,你可以从浏览器访问Chat with RTX,同时一个命令提示符在后台运行,显示出正在处理的内容和任何错误代码。

Nvidia并没有把这款应用推荐给所有RTX用户立即下载和安装。它存在一些已知的问题和限制,包括源文件归属并不总是准确。我最初试图让Chat with RTX索引25,000份文件,但这似乎使应用崩溃,我不得不清理偏好设置才能重新开始。

尽管如此,Nvidia在这里确实展示了一个很好的技术演示。它展示了未来AI聊天机器人在你的个人电脑上本地运行的潜力,特别是如果你不想订阅像Copilot Pro或ChatGPT Plus这样的服务来分析你的个人文件的话。

#免责声明#

①本站部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责。

②若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。

③如果本站有侵犯、不妥之处的资源,请联系我们。将会第一时间解决!

④本站部分内容均由互联网收集整理,仅供大家参考、学习,不存在任何商业目的与商业用途。

⑤本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与任何商业和非法行为,请于24小时之内删除!

给TA打赏
共{{data.count}}人
人已打赏
生活杂谈

聊聊我和油驴的曲折故事以及第一次摔车经历

2024-2-13 0:00:00

生活杂谈

Xbox日本分部宣布《破晓传奇》将于2月20日加入XGP

2024-2-15 0:00:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索