正在更换,请稍后
最新粉丝
让模型化身自主智能体,自行读取上下文节点树。
首先是对模型名称、ID 以及模型尺寸的处理。
来自:量子位->辅导界的小米带你冲刺ACL2024编者按:搞
如何不实际微调而“假装”微调了LLM。
NeurIPS2023放榜后,今年的主要顶会的录用结果基本全
公众号后台回复coling、acl、naacl直接进群~【论
【论文指导】ACL2024还有最后的名额,提供idea 实验
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数。
该论文介绍了一种名为 ReMax 的新算法。
超越未公开的顶尖模型,可直接应用于工具和定理证明。
关于大模型的思考及研究热点。
LLMs也许不擅长少样本信息提取,但可以为候选答案重新排序。
公告
一个从大三就接触NLP的小小NLPer,本公众号每天记录自己从本科到未来博士的一点一滴,期待与你在知识的殿堂与你相遇!
联系方式