0.5b 这种才是最有用的,因为它可以万能地微调成单一小任务。
而且它参数量小,本地跑,运行快。
以前的那些nlp任务都可以用这种万金油来微调。
比如文章提取,文章样式整理,数据格式转换,文章校验,快递信息提取等。
你可能会说我为什么不用传统的nlp来干? 主要是现在的llm模型,从训练到部署已经非常的流水线了,不会深度学习的人也能训练一个并部署,这个流水线简单到,真的只需要处理数据集而已。
整个过程你甚至不需要写…。
约同事去自驾游, 有车的同事会说,明天早上8点在XX公交站等...
写了十几年***,我发现普通人逆袭的秘诀就俩字:死磕 我今年...
有极大可能。 1.三艘航母到达中东,一艘航母做好准备去中东...
MoonBit 的 Beta 版发布意味着语法已趋于稳定,接...
这让我想起了之前遇到的几位租客。 我有一套老破小,两室一厅...
我先说结论,如果按照苏超的模式坚持下去,废掉的不仅是中超,还...