80元接入DeepSeek?个人部署AI火了

发布时间:2025-02-14 20:51 已有: 人阅读

  DeepSeek近期的持续爆火,带火了AI大模型部署技术交流与实践,也让低成本搭建AI智能工具进入更广泛的公众视野。

   “80块打造个人语音助手”、“150块DIY豆包智能机器人”……随着DeepSeek的爆火,个人用户部署AI大模型一夜间“出圈”。

   科技界围绕AI降本所做的工作并非一夕之功。有业内人士表示,DeepSeek在算法层面的推理成本优化,为国产算力芯片和计算集群网络等硬件端的发展争取了更多空间,而软硬件成本的减少,也将相应为国内AI应用带来机会,由此形成产业发展正向循环。

   越来越多个人开发者低成本的AI模型部署实践,让公众更加清醒地认识到,AI普惠时代已来,端侧AI落地箭在弦上。PC产品被认为是端侧AI模型落地的首站。而受访的供应链人士认为,当前更大的想象空间还在智能眼镜、AI玩具等智能体等应用中,DeepSeek带来的轻量化模型,将为智能终端行业带来积极影响。

   ▌个人用户部署大模型火爆 40元开发板月售万件

   “80块买一块开发板,按照教程进行硬件连接和固件烧录,就能接入DeepSeek等大模型,打造个人语音助手系统。”在技术社群中,有开发者分享了部署AI的技术帖。

   不仅如此, “万能的淘宝”和技术开源贡献,让这一切加速走进现实。

   据了解,以上方案均基于乐鑫科技的ESP系列芯片。在淘宝ESP32关键词,可以看到包括乐鑫官方企业店在内,有多个商家售卖开发板或套件,不同套件价格低可至20元、配备屏幕及扬声器、麦克风的套件价格可高至340元。

   在评论区中,消费者以个人开发者居多。在购买商品后,商家会附送教学,同时还会为用户提供技术支持。

   “一站式搞定,新手小白也可以操作”、“老板教我教到12点半”、“老板晚上10点还在教我烧录”……多名买家如是反馈产品购买体验。

   据乐鑫科技介绍,其ESP32-S3芯片硬件具备加速神经网络计算和信号处理等工作的向量指令,AI开发者们通过ESP-DSP和ESP-NN库使用这些向量指令,能够实现高性能的图像识别、语音唤醒和识别等应用。

   有开发者称,ESP32-S3支持在本地离线运行一些AI模型,比如语音识别、人脸识别和移动检测。但大部分自然语言对话交互仍需要线上接入大语言模型。

   除乐鑫科技外,恒玄科技、中科蓝讯、炬芯科技等公司的SoC芯片在终端AI部署中有所应用。

   其中,恒玄科技应用于可穿戴设备中的BECO嵌入式AI协处理器,能够和主CPU核心配合工作,完成基于神经网络AI算法的音频处理,同时保持较低功耗水准。

   炬芯科技则在其最新一代产品中整合了低功耗AI加速引擎,采用基于SRAM的存内计算技术,同时将产品逐步升级为CPU、DSP加NPU的三核异构计算架构,打造低功耗端侧AI算力。

   ▌产业链人士:看好DeepSeek对AI端侧的积极影响

   DeepSeek的横空出世,为端侧AI落地应用进一步打开想象空间。

   据了解,通过蒸馏,大模型推理能力可迁移至小参数模型,能够大幅提升AI部署的灵活性。据光大证券分析师刘凯在2月6日发布的研报称,蒸馏模型有1.5B、7B、8B、14B、32B、70B等多个版本,虽然蒸馏会损失部分能力,但更小的参数意味着更大的灵活性。第三方可以从DeepSeek-R1中蒸馏出更多版本的小参数模型并部署至手机、笔记本电脑、智能家居产品等各类终端产品中,预计将助力硬件销量提升、并涌现出更多基于AI服务的付费点。

   端侧AI落地来势汹涌,其前景也得到了产业链人士的证实和看好。

   一家存储芯片厂商人士则向 该人士称,“预计今年国内的智能眼镜肯定会大爆发,起量会在2026年。”

   一家国内消费电子配套芯片公司人士向 华安证券分析师陈耀波在2月6日发布的研报中表示,端侧实现AI能力需要端侧AI大模型的落地。从国内手机整机厂商看,均推出文档摘要、AI修图等端侧AI功能,包括华为的盘古模型、小米的MiLM、vivo的蓝心大模型等,基于DeepSeekR1在推理能力上表现出色,若能进入AI智能终端,将推出具有强大AI功能的产品,有望提升用户体验。

   以AI眼镜的产业链为例,光大证券表示,看好与日常需求相结合产生的巨大市场空间,建议关注恒玄科技、中科蓝讯、星宸科技、富瀚微、云天励飞-U、炬芯科技等SoC芯片商;以及普冉股份、兆易创新、佰维存储、长盈精密等零部件环节。

   ▌DeepSeek为国产硬件端发展争取更多空间

   PC产品同时包含生产力工具和个人智能管家两大属性,被认为是端侧模型落地的首站。以部分PC主机厂为主导,DeepSeek模型与国产算力芯片的适配进展超过不少人的想象。

   除了本地化部署,DeepSeek作为开源模型,还通过各大云计算平台向中小企业及个人用户提供AI服务资源。

   有业内人士向 该人士还表示,基于主流云平台异构计算方案,DeepSeek也在一定程度上推动国产大算力芯片和异构计算方案被市场接纳,进一步降低了AI训练成本。

   目前,阿里、腾讯、超算互联网等算力平台,均已经上线DeepSeek系列模型。在算法和算力网络的共同优化之下,云计算平台对DeepSeek模型进行适配并提供服务,降低了终端接入大模型的成本和部署门槛。

   以阿里云为例,用户无需编写代码,即可云上一键部署DeepSeek-V3、DeepSeek-R1,实现从模型训练到部署再到推理的全过程,极大地简化了AI模型的开发流程。在价格成本方面,阿里云服务用户可选取公共资源组搭配节省计划,或购买预付费EAS资源组等方式来节约成本。超算互联网平台则无需用户部署或进行复杂操作,可开箱即用DeepSeek模型,并提供不限量免费体验服务。

   “端侧大模型的线上接入,相对本地部署更为容易,但整体来看,DeepSeek确实让更多AI应用落地的软硬件成本有所减少。”有算力产业人士表示,DeepSeek在算法层面的优化,给了国产硬件端的发展争取了更多空间,相应地也为国内AI应用带来机会,并进一步强化了国产AI从算法、算力到应用的生态闭环。

热门推荐
图文推荐
  • 三星Galaxy Z Fold3和Z Flip 2可能会在7月推
  • 三星Galaxy A82 5G实时图像在发布前泄漏
  • Mozilla正在关闭适用于Amazon Fire TV和Echo