<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Prompt Learning on Arden’s blog</title>
    <link>https://ardenj.pages.dev/tags/prompt-learning/</link>
    <description>Recent content in Prompt Learning on Arden’s blog</description>
    <generator>Hugo -- 0.147.7</generator>
    <language>zh-cn</language>
    <lastBuildDate>Sun, 15 Mar 2026 09:48:51 +0800</lastBuildDate>
    <atom:link href="https://ardenj.pages.dev/tags/prompt-learning/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>PromptFL阅读笔记</title>
      <link>https://ardenj.pages.dev/learning/promptfl/</link>
      <pubDate>Sun, 15 Mar 2026 09:48:51 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/promptfl/</guid>
      <description>文献随记</description>
    </item>
    <item>
      <title>FedDG阅读：Learning to Prompt for Vision-Language Models</title>
      <link>https://ardenj.pages.dev/learning/coop_persual/</link>
      <pubDate>Tue, 10 Mar 2026 15:51:47 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/coop_persual/</guid>
      <description>&lt;p&gt;确定方向后第一篇论文精读笔记，随看随做。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;第一遍&#34;&gt;第一遍&lt;/h2&gt;
&lt;h3 id=&#34;abstract&#34;&gt;Abstract&lt;/h3&gt;
&lt;p&gt;在图像识别领域，传统做法是用视觉模型提取图像特征，然后匹配一组随机初始化的固定权重向量（每个类别一个向量），这些权重就代表视觉概念。而这就存在一个缺陷：这些向量只是数字，没有语义信息，如“狗”、“猫”、“飞机”在模型眼中只是01、02、03，而无法意识到狗和猫比狗和飞机在语义上更接近。&lt;/p&gt;
&lt;p&gt;这就引出了作者的一个发现：像 CLIP 这样的大型预训练视觉-语言模型在学习可跨越广泛下游任务迁移的表示方面展现了巨大潜力。每个类别不再是数字编号，而是一段自然语言描述（&amp;ldquo;a photo of a dog&amp;rdquo;）。模型学到的是图像和文本在共享语义空间里的对齐关系。&lt;/p&gt;
&lt;p&gt;CoOp 论文想表达的核心对比：正因为 CLIP 用了语言监督而非离散标签，它学到的表征空间天然更 transferable（可迁移）。但要用好这个能力，你得写对 prompt——这就引出了 CoOp 的研究动机：让机器自己学 prompt，别靠人手写。&lt;/p&gt;
&lt;h3 id=&#34;introduction&#34;&gt;Introduction&lt;/h3&gt;
&lt;p&gt;传统视觉模型无法较好泛化，模型将“一只猫”，“一只狗”替换为编号，很大程度上丢失了文本语义信息，使其无法处理新类别，因为学习新分类器需要额外的数据。&lt;/p&gt;
&lt;p&gt;最近，视觉-语言预训练成为有前景的一个方向，但提示词工程要求极其玄学的输入，一个词语的增删都会对结果造成显著影响。实验人员需要广泛的测试提示词，造成效率极其低下。&lt;/p&gt;
&lt;p&gt;所以，作者从提示学习（NLP）中找到灵感，提出一种简单方法：上下文优化（context optimization，简称CoOp）&lt;/p&gt;
&lt;h3 id=&#34;conclusion&#34;&gt;conclusion&lt;/h3&gt;
&lt;p&gt;大致意思就是这个实验方向很新，效果很不错，还有很多地方可以细化展开，我们的文章主要做为一个引入。&lt;/p&gt;
&lt;h2 id=&#34;第二遍阅读&#34;&gt;第二遍阅读&lt;/h2&gt;
&lt;p&gt;CLIP是本文绕不开的一个话题。CLIP是openAI发布的开源模型，关联了图像和文字。我主要介绍两个概念：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;特征空间&lt;/strong&gt;：对于计算机来说，它是无法真正识别图像和文字的，我们需要将他们转换成一串数字（向量）。特征空间就是一个 512 维的数学坐标系，图像和文字都会被转换成这512维的向量，如果一张图片和一串文字在这个坐标系里算出来的距离很近（点积很大），那就说明他们成功匹配了。有趣的是，人类并不知道这512维每一个维度代表什么，这些都是模型在训练中自己决定的。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;编码器（Encoder）&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;图像编码器：输入一张图片，输出一串512维的向量。&lt;/li&gt;
&lt;li&gt;文字编码器：输入一句话，输出一串512维的向量。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;在CLIP出来之前，CV和NLP之间有巨大的鸿沟。openAI通过4亿对图片与文字进行对比学习，最后训练出CLIP，完美对齐了视觉和语义。&lt;/p&gt;
&lt;p&gt;具体实验流程不放了，下面进入复现&lt;/p&gt;
&lt;h2 id=&#34;复现代码&#34;&gt;复现代码&lt;/h2&gt;
&lt;p&gt;第一次尝试复现代码，流程实在是繁琐。首先下载代码后需要进行环境配置，环境配置好后，需要下载数据集。数据集需要放入指定文件夹，然后在脚本中修改路径。这两步用copilot可以快速完成。&lt;/p&gt;
&lt;h1 id=&#34;太tm难复现了这代码到此为止312记&#34;&gt;太tm难复现了这代码，到此为止。。。（3.12记）&lt;/h1&gt;</description>
    </item>
    <item>
      <title>FedDG 论文导读</title>
      <link>https://ardenj.pages.dev/learning/feddg/</link>
      <pubDate>Sat, 07 Mar 2026 21:22:43 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/feddg/</guid>
      <description>&lt;h2 id=&#34;全局视角三篇地基论文&#34;&gt;全局视角：三篇&amp;quot;地基&amp;quot;论文&lt;/h2&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;论文&lt;/th&gt;
          &lt;th&gt;定位&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;PromptFL&lt;/strong&gt;（2023）&lt;/td&gt;
          &lt;td&gt;方向一的起点 Baseline，&amp;ldquo;联邦 Prompt 学习的 FedAvg&amp;rdquo;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;FedSR&lt;/strong&gt;（NeurIPS 2022）&lt;/td&gt;
          &lt;td&gt;通用 FedDG Baseline，三个方向都必须比较的对象&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;SHOT&lt;/strong&gt;（ICML 2020）&lt;/td&gt;
          &lt;td&gt;方向三的历史根源，Source-Free DA 的奠基之作&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;这三篇是&amp;quot;祖师爷&amp;quot;级别——必须理解，但后续工作要站在它们肩膀上，不是复现它们。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;方向一clip--llm--联邦提示微调&#34;&gt;方向一：CLIP / LLM + 联邦提示微调&lt;/h1&gt;
&lt;h2 id=&#34;入门论文&#34;&gt;入门论文&lt;/h2&gt;
&lt;h3 id=&#34;coop--prompt-learning-for-vision-language-models&#34;&gt;CoOp — Prompt Learning for Vision-Language Models&lt;/h3&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;会议&lt;/strong&gt;：IJCV 2022（原版 ICCV 2021）&lt;br&gt;
&lt;strong&gt;关键词&lt;/strong&gt;：Soft Prompt, CLIP, Context Optimization&lt;br&gt;
读这篇是因为 PromptFL 本质上就是&amp;quot;把 CoOp 塞进联邦框架&amp;quot;，不懂 CoOp 就没法理解 PromptFL。&lt;/p&gt;&lt;/blockquote&gt;
&lt;p&gt;CLIP 用&amp;quot;a photo of a [CLASS]&amp;ldquo;这样的手工文本做零样本分类，但手工模板很依赖玄学——换一句话描述，准确率可能差 10%。CoOp 的解决方案很直接：&lt;strong&gt;别手写模板，让模型自己学出来&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Soft Prompt 的核心机制&lt;/strong&gt;&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;手工 Prompt（Hard Prompt）：
  输入 → &amp;#34;a photo of a [cat]&amp;#34; → CLIP 文本编码 → 分类

Soft Prompt（CoOp 的做法）：
  输入 → [v1][v2][v3][v4][cat] → CLIP 文本编码 → 分类
            ↑
        这 4 个 [v] 不是文字，是可学习的浮点向量
        训练时只更新这 4 个向量，CLIP 的其余参数全部冻结
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;strong&gt;Soft Prompt 就是在类别词前面拼几个可学习的浮点向量&lt;/strong&gt;，训练时只更新这几个向量，CLIP 其余参数全部冻结。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
