成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
指令调优
关注
0
综合
百科
VIP
热门
动态
论文
精华
QuPAINT: Physics-Aware Instruction Tuning Approach to Quantum Material Discovery
Arxiv
0+阅读 · 2月19日
Not All Tokens Matter: Data-Centric Optimization for Efficient Code Summarization
Arxiv
0+阅读 · 2月17日
An Empirical Study on the Effects of System Prompts in Instruction-Tuned Models for Code Generation
Arxiv
0+阅读 · 2月16日
Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian
Arxiv
0+阅读 · 2月15日
Task-Conditioned Probing Reveals Brain-Alignment Patterns in Instruction-Tuned Multimodal LLMs
Arxiv
0+阅读 · 2月7日
SAME: Stabilized Mixture-of-Experts for Multimodal Continual Instruction Tuning
Arxiv
0+阅读 · 2月2日
How Far Can Pretrained LLMs Go in Symbolic Music? Controlled Comparisons of Supervised and Preference-based Adaptation
Arxiv
0+阅读 · 1月30日
Do Instruction-Tuned Models Always Perform Better Than Base Models? Evidence from Math and Domain-Shifted Benchmarks
Arxiv
0+阅读 · 1月19日
PIShield: Detecting Prompt Injection Attacks via Intrinsic LLM Features
Arxiv
0+阅读 · 1月24日
The Best Instruction-Tuning Data are Those That Fit
Arxiv
0+阅读 · 1月11日
UPDESH: Synthesizing Grounded Instruction Tuning Data for 13 Indic
Arxiv
0+阅读 · 1月9日
Instruction Tuning with and without Context: Behavioral Shifts and Downstream Impact
Arxiv
0+阅读 · 1月8日
Investigating the Multilingual Calibration Effects of Language Model Instruction-Tuning
Arxiv
0+阅读 · 1月4日
EXAONE 3.0 7.8B Instruction Tuned Language Model
Arxiv
0+阅读 · 1月2日
MCITlib: Multimodal Continual Instruction Tuning Library and Benchmark
Arxiv
0+阅读 · 2025年12月31日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top