<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>联邦域泛化 on Arden’s blog</title>
    <link>https://ardenj.pages.dev/series/%E8%81%94%E9%82%A6%E5%9F%9F%E6%B3%9B%E5%8C%96/</link>
    <description>Recent content in 联邦域泛化 on Arden’s blog</description>
    <generator>Hugo -- 0.147.7</generator>
    <language>zh-cn</language>
    <lastBuildDate>Sun, 15 Mar 2026 09:48:51 +0800</lastBuildDate>
    <atom:link href="https://ardenj.pages.dev/series/%E8%81%94%E9%82%A6%E5%9F%9F%E6%B3%9B%E5%8C%96/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>PromptFL阅读笔记</title>
      <link>https://ardenj.pages.dev/learning/promptfl/</link>
      <pubDate>Sun, 15 Mar 2026 09:48:51 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/promptfl/</guid>
      <description>文献随记</description>
    </item>
    <item>
      <title>FedDG阅读：Learning to Prompt for Vision-Language Models</title>
      <link>https://ardenj.pages.dev/learning/coop_persual/</link>
      <pubDate>Tue, 10 Mar 2026 15:51:47 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/coop_persual/</guid>
      <description>&lt;p&gt;确定方向后第一篇论文精读笔记，随看随做。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;第一遍&#34;&gt;第一遍&lt;/h2&gt;
&lt;h3 id=&#34;abstract&#34;&gt;Abstract&lt;/h3&gt;
&lt;p&gt;在图像识别领域，传统做法是用视觉模型提取图像特征，然后匹配一组随机初始化的固定权重向量（每个类别一个向量），这些权重就代表视觉概念。而这就存在一个缺陷：这些向量只是数字，没有语义信息，如“狗”、“猫”、“飞机”在模型眼中只是01、02、03，而无法意识到狗和猫比狗和飞机在语义上更接近。&lt;/p&gt;
&lt;p&gt;这就引出了作者的一个发现：像 CLIP 这样的大型预训练视觉-语言模型在学习可跨越广泛下游任务迁移的表示方面展现了巨大潜力。每个类别不再是数字编号，而是一段自然语言描述（&amp;ldquo;a photo of a dog&amp;rdquo;）。模型学到的是图像和文本在共享语义空间里的对齐关系。&lt;/p&gt;
&lt;p&gt;CoOp 论文想表达的核心对比：正因为 CLIP 用了语言监督而非离散标签，它学到的表征空间天然更 transferable（可迁移）。但要用好这个能力，你得写对 prompt——这就引出了 CoOp 的研究动机：让机器自己学 prompt，别靠人手写。&lt;/p&gt;
&lt;h3 id=&#34;introduction&#34;&gt;Introduction&lt;/h3&gt;
&lt;p&gt;传统视觉模型无法较好泛化，模型将“一只猫”，“一只狗”替换为编号，很大程度上丢失了文本语义信息，使其无法处理新类别，因为学习新分类器需要额外的数据。&lt;/p&gt;
&lt;p&gt;最近，视觉-语言预训练成为有前景的一个方向，但提示词工程要求极其玄学的输入，一个词语的增删都会对结果造成显著影响。实验人员需要广泛的测试提示词，造成效率极其低下。&lt;/p&gt;
&lt;p&gt;所以，作者从提示学习（NLP）中找到灵感，提出一种简单方法：上下文优化（context optimization，简称CoOp）&lt;/p&gt;
&lt;h3 id=&#34;conclusion&#34;&gt;conclusion&lt;/h3&gt;
&lt;p&gt;大致意思就是这个实验方向很新，效果很不错，还有很多地方可以细化展开，我们的文章主要做为一个引入。&lt;/p&gt;
&lt;h2 id=&#34;第二遍阅读&#34;&gt;第二遍阅读&lt;/h2&gt;
&lt;p&gt;CLIP是本文绕不开的一个话题。CLIP是openAI发布的开源模型，关联了图像和文字。我主要介绍两个概念：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;特征空间&lt;/strong&gt;：对于计算机来说，它是无法真正识别图像和文字的，我们需要将他们转换成一串数字（向量）。特征空间就是一个 512 维的数学坐标系，图像和文字都会被转换成这512维的向量，如果一张图片和一串文字在这个坐标系里算出来的距离很近（点积很大），那就说明他们成功匹配了。有趣的是，人类并不知道这512维每一个维度代表什么，这些都是模型在训练中自己决定的。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;编码器（Encoder）&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;图像编码器：输入一张图片，输出一串512维的向量。&lt;/li&gt;
&lt;li&gt;文字编码器：输入一句话，输出一串512维的向量。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;在CLIP出来之前，CV和NLP之间有巨大的鸿沟。openAI通过4亿对图片与文字进行对比学习，最后训练出CLIP，完美对齐了视觉和语义。&lt;/p&gt;
&lt;p&gt;具体实验流程不放了，下面进入复现&lt;/p&gt;
&lt;h2 id=&#34;复现代码&#34;&gt;复现代码&lt;/h2&gt;
&lt;p&gt;第一次尝试复现代码，流程实在是繁琐。首先下载代码后需要进行环境配置，环境配置好后，需要下载数据集。数据集需要放入指定文件夹，然后在脚本中修改路径。这两步用copilot可以快速完成。&lt;/p&gt;
&lt;h1 id=&#34;太tm难复现了这代码到此为止312记&#34;&gt;太tm难复现了这代码，到此为止。。。（3.12记）&lt;/h1&gt;</description>
    </item>
    <item>
      <title>FedDG 论文导读</title>
      <link>https://ardenj.pages.dev/learning/feddg/</link>
      <pubDate>Sat, 07 Mar 2026 21:22:43 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/feddg/</guid>
      <description>&lt;h2 id=&#34;全局视角三篇地基论文&#34;&gt;全局视角：三篇&amp;quot;地基&amp;quot;论文&lt;/h2&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;论文&lt;/th&gt;
          &lt;th&gt;定位&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;PromptFL&lt;/strong&gt;（2023）&lt;/td&gt;
          &lt;td&gt;方向一的起点 Baseline，&amp;ldquo;联邦 Prompt 学习的 FedAvg&amp;rdquo;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;FedSR&lt;/strong&gt;（NeurIPS 2022）&lt;/td&gt;
          &lt;td&gt;通用 FedDG Baseline，三个方向都必须比较的对象&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;strong&gt;SHOT&lt;/strong&gt;（ICML 2020）&lt;/td&gt;
          &lt;td&gt;方向三的历史根源，Source-Free DA 的奠基之作&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;这三篇是&amp;quot;祖师爷&amp;quot;级别——必须理解，但后续工作要站在它们肩膀上，不是复现它们。&lt;/p&gt;
&lt;hr&gt;
&lt;h1 id=&#34;方向一clip--llm--联邦提示微调&#34;&gt;方向一：CLIP / LLM + 联邦提示微调&lt;/h1&gt;
&lt;h2 id=&#34;入门论文&#34;&gt;入门论文&lt;/h2&gt;
&lt;h3 id=&#34;coop--prompt-learning-for-vision-language-models&#34;&gt;CoOp — Prompt Learning for Vision-Language Models&lt;/h3&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;会议&lt;/strong&gt;：IJCV 2022（原版 ICCV 2021）&lt;br&gt;
&lt;strong&gt;关键词&lt;/strong&gt;：Soft Prompt, CLIP, Context Optimization&lt;br&gt;
读这篇是因为 PromptFL 本质上就是&amp;quot;把 CoOp 塞进联邦框架&amp;quot;，不懂 CoOp 就没法理解 PromptFL。&lt;/p&gt;&lt;/blockquote&gt;
&lt;p&gt;CLIP 用&amp;quot;a photo of a [CLASS]&amp;ldquo;这样的手工文本做零样本分类，但手工模板很依赖玄学——换一句话描述，准确率可能差 10%。CoOp 的解决方案很直接：&lt;strong&gt;别手写模板，让模型自己学出来&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Soft Prompt 的核心机制&lt;/strong&gt;&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;手工 Prompt（Hard Prompt）：
  输入 → &amp;#34;a photo of a [cat]&amp;#34; → CLIP 文本编码 → 分类

Soft Prompt（CoOp 的做法）：
  输入 → [v1][v2][v3][v4][cat] → CLIP 文本编码 → 分类
            ↑
        这 4 个 [v] 不是文字，是可学习的浮点向量
        训练时只更新这 4 个向量，CLIP 的其余参数全部冻结
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;strong&gt;Soft Prompt 就是在类别词前面拼几个可学习的浮点向量&lt;/strong&gt;，训练时只更新这几个向量，CLIP 其余参数全部冻结。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Domain adaptation学习笔记（2.选择篇）</title>
      <link>https://ardenj.pages.dev/learning/domain_adaptation2/</link>
      <pubDate>Sat, 07 Mar 2026 19:00:54 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/domain_adaptation2/</guid>
      <description>&lt;h2 id=&#34;前言&#34;&gt;前言&lt;/h2&gt;
&lt;p&gt;经过基础知识的学习，我需要将视角放到更宏大的范围来寻找科研方向，了解整体风向，因此本篇笔记记录一些我摘录的当前学科架构的情况和我对于后续科研方向的一些探索。&lt;/p&gt;
&lt;h2 id=&#34;人工智能领域结构&#34;&gt;人工智能领域结构&lt;/h2&gt;
&lt;p&gt;在了解到联邦域泛化（FedDG）后，我回顾了之前的学习历程，发现我对于人工智能领域的全景缺乏理解，所以我让Claude帮我进行快速回顾：&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt; 1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 6
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 7
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 8
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 9
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;10
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;11
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;12
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;13
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-text&#34; data-lang=&#34;text&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;人工智能 (Artificial Intelligence)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;├── 机器学习 (Machine Learning)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│   ├── 监督学习 (Supervised Learning)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│   ├── 无监督学习 (Unsupervised Learning)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│   ├── 强化学习 (Reinforcement Learning)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│   └── 深度学习 (Deep Learning) ← 当前主流
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│       ├── CV（计算机视觉）
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│       ├── NLP（自然语言处理）← LLM 在这
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│       ├── 多模态 (Multimodal)  ← CLIP 在这
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;│       └── 图神经网络 (GNN)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;├── 知识表示 &amp;amp; 推理 (符号主义，老派)
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;├── 搜索与规划
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;└── 专家系统（已衰落）
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;而在所有的方向中，强化学习和深度学习无疑是最热门的方向，这里列出它们的内部结构：&lt;/p&gt;</description>
    </item>
    <item>
      <title>Domain adaptation入门笔记（1.超基础知识篇）</title>
      <link>https://ardenj.pages.dev/learning/domain_adaptation/</link>
      <pubDate>Fri, 06 Mar 2026 09:29:23 +0800</pubDate>
      <guid>https://ardenj.pages.dev/learning/domain_adaptation/</guid>
      <description>&lt;blockquote&gt;
&lt;ul&gt;
&lt;li&gt;本文为我入门域适应的一些随手记，按照时间顺序进行排序，包含了一些思考和反馈。&lt;/li&gt;
&lt;li&gt;摘录我阅读的文章原文部分使用&lt;em&gt;斜体&lt;/em&gt;，关于思考总结的部分使用正常字体。&lt;/li&gt;
&lt;/ul&gt;&lt;/blockquote&gt;
&lt;h2 id=&#34;第一次阅读&#34;&gt;第一次阅读&lt;/h2&gt;
&lt;p&gt;阅读材料：&lt;a href=&#34;https://zhuanlan.zhihu.com/p/439560708&#34;&gt;迁移学习入门之一：域适应的背景，理论与方法&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;在机器学习中，Domain Shift是一个很常见的问题，即在训练数据与真实场景来自于不同的分布。
&lt;em&gt;如在医学深度学习模型中，用A医院的数据(Source Domain)训练的模型往往在B医院(Target Domain)预测不准。在摄像头行人重识别(Re-ID)问题中，多个摄像头捕捉的场景分布完全不一致，导致单个行人在多个摄像头中的&amp;quot;重识别&amp;quot;变得较为困难。在联邦学习中，不同客户的数据分布不一致（non-iid）也是最常见的全局模型训练问题。&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;而domain adaptation即是对于domain shift的一种解决方案。与其他流派（如迁移学习和微调）不同的点在于，domain adaptation保留了在source domain上的高精度，
并通过一些方法缩小表示空间（将数据从原始输入形式“如图像、文本”转换后得到的特征向量所在的抽象空间，在当前语境下，它是源域与目标域数据通过特征提取层映射后的空间）上Source与target模型特征的距离。&lt;/p&gt;
&lt;p&gt;&lt;img alt=&#34;具体图像&#34; loading=&#34;lazy&#34; src=&#34;https://ardenj.pages.dev/learning/domain_adaptation/v2-551104354ea5639291e857744282a7d4_1440w.png&#34;&gt;&lt;/p&gt;
&lt;p&gt;在了解大方向后，文章给出了一些数学推导，我感觉有点难以理解，这里先记录一些定义和简单的公式：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;h3 id=&#34;文章定义一个domain由两个部分组成&#34;&gt;文章定义一个domain由两个部分组成：$D,f$&lt;/h3&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;$D$（分布函数）&lt;/strong&gt;:可以理解为“画风“或数据长什么样。比如源域$D_S$是高清图，目标域$D_T$是高斯模糊图。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;$f$（标签函数）&lt;/strong&gt;:是数据的标签，如在二分类问题中输入一张图$x$,它到底是猫还是狗（0或1）。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;在 Domain Adaptation 中，我们通常假设&lt;strong&gt;物体的本质不变，只是画风变了&lt;/strong&gt;。
也就是说，一张猫的图片，无论变多模糊，它依然是猫。也就是:
$f_S \approx f_T$, 但是 $D_s \neq D_T$&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;h3 id=&#34;什么是误差&#34;&gt;什么是误差？&lt;/h3&gt;
&lt;p&gt;公式 ：
&lt;/p&gt;
$$ \epsilon(h, f; \mathcal{D}) = \mathbf{E}_{\mathbf{x} \sim \mathcal{D}}|h(\mathbf{x}) - f(\mathbf{x})| $$&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;$h$ (hypothesis，假设)&lt;/strong&gt;：学习函数，就是我们训练的模型网络。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;$f$&lt;/strong&gt;：真实标签。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;$\epsilon$ (error)&lt;/strong&gt;：误差。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个公式大概是代码里写的 &lt;strong&gt;Loss 函数（或者说测试集上的错误率）&lt;/strong&gt;。
它表示：在某种画风 $\mathcal{D}$ 下，你的模型 $h$ 预测的结果，和真实答案 $f$ 之间相差多少。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$\epsilon_S(h)$：模型在源域（清晰图）上的错误率。&lt;/li&gt;
&lt;li&gt;$\epsilon_T(h)$：模型在目标域（模糊图）上的错误率。&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;我们手里只有源域的标签，所以我们只能把 $\epsilon_S(h)$ 训练得很小。但我们&lt;strong&gt;真正想要的是，$\epsilon_T(h)$ 也很小&lt;/strong&gt;。&lt;/p&gt;&lt;/blockquote&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;h3 id=&#34;关键公式泛化误差上界&#34;&gt;关键公式：泛化误差上界&lt;/h3&gt;
$$ \epsilon_T(h) \le \epsilon_S(h) + d_1(\mathcal{D}_S, \mathcal{D}_T) + \text{常量} $$&lt;p&gt;我们把这个公式拆成三块来看：
你要想让&lt;strong&gt;目标域错误率 $\epsilon_T(h)$ 很小&lt;/strong&gt;（等号左边），你必须让等号右边的三项都很小：&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
