2月17日,昆仑万维旗下的Opera团队在Opera Developer中接入了DeepSeek R1系列模型,实现了本地个性化部署。这一举措标志着Opera在AI技术应用方面的进一步拓展,为用户提供了更强大的本地AI功能。
Opera在2024年率先将内置本地大语言模型(LLM)引入Web浏览器,为用户提供了超过50种LLM的访问权限。此次接入DeepSeek R1系列模型后,Opera Developer利用Ollama框架(由llama.cpp实现),支持用户在本地运行该模型,进一步提升了浏览器的AI能力。
用户可以通过简单的步骤在本地设备上运行DeepSeek R1模型。首先,用户需要下载并更新到最新版本的Opera Developer,打开浏览器并点击左侧边栏中的Aria标识,进入Aria界面后点击左上角的徽标展开聊天历史记录。接着,进入设置菜单,点击“本地AI模型”选项。在搜索框中输入“deepseek”,选择并下载其中一个模型。下载完成后,用户只需打开一个与Aria的新聊天窗口,并选择刚刚下载的模型即可使用。
Opera为用户提供了多种DeepSeek R1模型选择,用户可以根据个人设备的运行能力选择合适的模型。
此次Opera接入DeepSeek R1模型,不仅为用户提供了更强大的本地AI功能,也进一步推动了AI技术在浏览器领域的应用和普及。Opera Developer的这一更新,为用户带来了更个性化、更高效的AI体验,同时也展示了昆仑万维在AI技术领域的持续创新和应用能力。