<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>论文导读 on Arden’s blog</title>
    <link>https://ardenj.pages.dev/tags/%E8%AE%BA%E6%96%87%E5%AF%BC%E8%AF%BB/</link>
    <description>Recent content in 论文导读 on Arden’s blog</description>
    <generator>Hugo -- 0.147.7</generator>
    <language>zh-cn</language>
    <lastBuildDate>Sat, 07 Mar 2026 21:22:43 +0800</lastBuildDate>
    <atom:link href="https://ardenj.pages.dev/tags/%E8%AE%BA%E6%96%87%E5%AF%BC%E8%AF%BB/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>FedDG 论文导读</title>
      <link>https://ardenj.pages.dev/learning/feddg/</link>
      <pubDate>Sat, 07 Mar 2026 21:22:43 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/feddg/</guid>
      <description>&lt;h2 id=&#34;全局视角三篇地基论文&#34;&gt;全局视角：三篇&amp;quot;地基&amp;quot;论文&lt;/h2&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;论文&lt;/th&gt;
          &lt;th&gt;定位&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;PromptFL&lt;/strong&gt;（2023）&lt;/td&gt;
          &lt;td&gt;方向一的起点 Baseline，&amp;ldquo;联邦 Prompt 学习的 FedAvg&amp;rdquo;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;FedSR&lt;/strong&gt;（NeurIPS 2022）&lt;/td&gt;
          &lt;td&gt;通用 FedDG Baseline，三个方向都必须比较的对象&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;SHOT&lt;/strong&gt;（ICML 2020）&lt;/td&gt;
          &lt;td&gt;方向三的历史根源，Source-Free DA 的奠基之作&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;这三篇是&amp;quot;祖师爷&amp;quot;级别——必须理解，但后续工作要站在它们肩膀上，不是复现它们。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;方向一clip--llm--联邦提示微调&#34;&gt;方向一：CLIP / LLM + 联邦提示微调&lt;/h1&gt;
&lt;h2 id=&#34;入门论文&#34;&gt;入门论文&lt;/h2&gt;
&lt;h3 id=&#34;coop--prompt-learning-for-vision-language-models&#34;&gt;CoOp — Prompt Learning for Vision-Language Models&lt;/h3&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;会议&lt;/strong&gt;：IJCV 2022（原版 ICCV 2021）&lt;br&gt;
&lt;strong&gt;关键词&lt;/strong&gt;：Soft Prompt, CLIP, Context Optimization&lt;br&gt;
读这篇是因为 PromptFL 本质上就是&amp;quot;把 CoOp 塞进联邦框架&amp;quot;，不懂 CoOp 就没法理解 PromptFL。&lt;/p&gt;&lt;/blockquote&gt;
&lt;p&gt;CLIP 用&amp;quot;a photo of a [CLASS]&amp;ldquo;这样的手工文本做零样本分类，但手工模板很依赖玄学——换一句话描述，准确率可能差 10%。CoOp 的解决方案很直接：&lt;strong&gt;别手写模板，让模型自己学出来&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Soft Prompt 的核心机制&lt;/strong&gt;&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;手工 Prompt（Hard Prompt）：
  输入 → &amp;#34;a photo of a [cat]&amp;#34; → CLIP 文本编码 → 分类

Soft Prompt（CoOp 的做法）：
  输入 → [v1][v2][v3][v4][cat] → CLIP 文本编码 → 分类
            ↑
        这 4 个 [v] 不是文字，是可学习的浮点向量
        训练时只更新这 4 个向量，CLIP 的其余参数全部冻结
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;strong&gt;Soft Prompt 就是在类别词前面拼几个可学习的浮点向量&lt;/strong&gt;，训练时只更新这几个向量，CLIP 其余参数全部冻结。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
