okok下载站
首页 > 资讯 > Sigma推出主打隐私保护的AI原生浏览器,内置本地大语言模型

Sigma推出主打隐私保护的AI原生浏览器,内置本地大语言模型

Sigma浏览器有限公司在周五发布消息,推出了一款主打隐私保护的网络浏览器,这款浏览器搭载了本地人工智能模型,所有数据都不会上传到云端。

不少浏览器厂商正紧跟AI趋势,把主流AI模型融入用户体验。主流浏览器的AI原生功能涵盖谷歌Chrome内置的Gemini,还有Mozilla Firefox集成的AI模型。AI模型开发方也推出了专属的AI原生浏览器,比如Perplexity AI打造的Comet,以及OpenAI集团PBC推出的Atlas。

这些浏览器一般会把用户的查询与问题传送到云AI系统,从而给出答案并生成相关内容。

相比之下,Sigma旗下的Eclipse浏览器内置了本地大语言模型,支持离线运行,并且能将用户的所有数据、问题及对话内容完整保存在本地设备中。该公司表示,这种方式能够规避因使用第三方服务而可能出现的答案被篡改或用户信息外泄的风险。

“AI的能力如今已十分强大,但同时也呈现出集中化和成本高昂的特点,”Sigma联合创始人Nick Trenkler指出,“我们认为,用户不应为了体验先进AI技术,就不得不牺牲个人隐私或是持续支付云服务费用。”

公司称,Eclipse内置的LLM未经过滤,不存在意识形态或内容方面的限制,也就是说它不会倾向于给出某些特定回应。这样的设计选择符合Sigma的初衷,即让用户能够完全掌控AI交互体验,不受主题或观点的约束。

更新还包括本地PDF处理功能,允许用户直接在计算机上分析和处理文档。

Sigma的Eclipse并非首个支持本地LLM的浏览器。2024年,Brave Software Inc.旗下浏览器为其Leo AI助手新增了“自带模型”功能,其中就包含与本地运行LLM的基础集成;不过这一过程可能略带技术门槛,因为需要安装Ollama或其他本地AI推理工具。

要让本地模型顺利运行,尤其是参数规模在70亿左右的中等模型,硬件方面一般得满足至少16到32GB的内存要求。同时还需要一块较新的显卡,像英伟达的入门款RTX 3060就可以,但更推荐大家使用RTX 4090及以上的型号。如果要运行更大的AI模型,那么对内存容量和GPU性能的要求也会相应提高。

为用户提供无需自行准备的本地优先大语言模型(LLM),或许能让浏览器变得更有吸引力。相关公司称,此次发布是朝着用户更透明地掌控AI的方向所迈出的一步,可让用户在保障隐私与可访问性的同时,维持模型的性能与能力。

游戏攻略
热门攻略
热门游戏
专题合集更多
热门攻略