2025年的AI领域在研究什么?
记忆 可以把人类记忆分成四层: 短期记忆,对应前额叶 中期记忆,对应海马体 长期记忆,分布在大脑皮层 人类历史记忆,对应维基百科和史书 AI 也要模仿这个机制,大模型对应的可能是: Context 窗口 → 短期记忆 RAG 检索 → 中期记...
记忆 可以把人类记忆分成四层: 短期记忆,对应前额叶 中期记忆,对应海马体 长期记忆,分布在大脑皮层 人类历史记忆,对应维基百科和史书 AI 也要模仿这个机制,大模型对应的可能是: Context 窗口 → 短期记忆 RAG 检索 → 中期记...
2025年末的视频生成模型 字节发布了最新的视频生成模型Seedance 1.5 pro,原生音视频联合生成。 与此同时,通义最近更新了wan2.6视频生成模型。 VLA和视频生成模型和世界模型 VLA和视频生成模型本质上都是在对世界做理解,VL...
没有记忆的LLM 对话窗口是离散的、上下文是短暂的、用户又不愿意写长 prompt,于是模型面对的就是高熵输入——一句话脱离语境,等价于在巨大解释空间里做反演(inverse problem)。约束太少导致“有效解释空间”巨大。 人类交流其实一直靠...
起因 昨晚由于帮好朋友请假需要fake一张检查单,检查单包含了大量的中文,我使用cherry studio生成的图片分辨率是默认的1K,经常会出现汉字笔画断联的情况。 之前刷到过相关帖子,nano banana pro的汉字生成会在4k等高分辨率图...
前言 在赛博禅心公众号上刷到了明浩老师的博客推荐,很有意思,从技术、投资多方面讲了2025ai领域的发展。 此文章记录下我作为AI相关专业学生对博客内容很有感触的几个点。 原文:Vol.76 我们不知不觉的走到了这里—170页PPT讲透2025AI...

引言 书接上回,基于hexo搭建了自己的博客之后,有点强迫症的我还是想提升下网站的访问速度,Github Pages的延迟还是很容易被感知到的。刚好呢最近我在Linxdo论坛上刷到了基于优选域名加速网站的帖子,没看太懂,凑着这个机会好好钻研一下。 ...
起因 因为我习惯使用markdown记录笔记和折腾各种东西所踩的坑,但是时间久了这些md文件分散在不同项目的不同文件夹下,也丢失了记录的初衷,一直有自己部署一个博客的想法,刚好今天刷到了一个基于hexo-stellar主题的博客,感觉很好看,遂立马...