从1月起,主要用各种官方大模型,如Gemini 3PRO,GLM,针对提示词优化,即梦4.5对图片生成质量和可用度上进行大量测试。实际用下来,文案优化只推荐Gemini 3PRO(以大量,可用为主,Claude偏正式,Token贵,不适合简单高频的任务),生图推荐Lovart(比较贵)即梦和Nanobanana。视频生成推荐即梦2.0。2月8号有幸感受到了即梦2.0视频的冲击,以及后续的迅速阉割,触动我的思考,并不是现有水平做不到,后续限制发展的极大程度是版权之争,毕竟像奥特曼,迪士尼这种一直都生成不出来,PS的创成式填充也用过,做不出来。后面转向本地生图,32G+显卡5070Ti,利用Comfui进行大量的生图测试,多模型测试后还是回归到提示词上面,无论是文案还是生图,优秀模型之间的差异可用性都不差,关键是需要准确清晰的描述出来。

看到AI工作流的文章铺天盖地,各种SKILL,扣子,Openclaw等工具,大肆宣传制造焦虑,实际用下来种种问题,市面上软件付费机制一变再变,像Lovart从基础$9.9到19.9,即梦会员卡审核,排队,扣子模型Token消耗不实推荐,用的人越多,算力肯定受限,肯定是各种审核,卡。网上这些人啊,搞些简单的工作流,小红书,B站宣传的热火朝天,都是水军,用过openclaw的都知道,那个Token花费吃不消,你放着跑,真的能给你跑破产。免费的什么英伟达KIMI2.5,本地Ollama也是扯,对于深度用过Gemini 3PRO和Claude的人来说,这些免费模型回复慢,质量低,解决不了复杂问题,低质量的回复结果反而拖延了效率,像一篇小学作文,错误百出,核对还有花时间,实在是不想用。

现在方向比较清晰,文案调用优质大模型API,Gemini 3PRO(现在升级到了3.1,虽然明面增强,但是实际用下来,限制变多,回复变慢,限制对话数量,还有降智,但是仍是最优解),备用Deepseek,GLM。(Ollama本地部署一坨,7B,14B,32B这些家用电脑能跑的质量比不过23年以前的模型), 生图先基于本地Comfui大量测试提示词后,再观察下Lovart,即梦和Nanobanana的发展有选择的购买。

AI是很强,前提是你自己的SOP流程足够清晰,可以转化成可执行的逻辑,这样事半功倍,不然就是把简单工作复杂化。你说用的人多吗?身边不多。有影响吗?似乎是不大。你说有用吗?仔细想很有用。那为什么没普及呢,不说小白不会折腾,现在市面上你只要付钱,什么没有。关键还是目标不够清晰,不知道自己用来干嘛,沉没成本高而已,真正有生产力的早就再付费了。一定一定要走在时代的前沿,不然真的会被淘汰的。