Domain adaptation学习笔记(2.选择篇)
前言 经过基础知识的学习,我需要将视角放到更宏大的范围来寻找科研方向,了解整体风向,因此本篇笔记记录一些我摘录的当前学科架构的情况和我对于后续科研方向的一些探索。 人工智能领域结构 在了解到联邦域泛化(FedDG)后,我回顾了之前的学习历程,发现我对于人工智能领域的全景缺乏理解,所以我让Claude帮我进行快速回顾: 人工智能 (Artificial Intelligence) ├── 机器学习 (Machine Learning) │ ├── 监督学习 (Supervised Learning) │ ├── 无监督学习 (Unsupervised Learning) │ ├── 强化学习 (Reinforcement Learning) │ └── 深度学习 (Deep Learning) ← 当前主流 │ ├── CV(计算机视觉) │ ├── NLP(自然语言处理)← LLM 在这 │ ├── 多模态 (Multimodal) ← CLIP 在这 │ └── 图神经网络 (GNN) ├── 知识表示 & 推理 (符号主义,老派) ├── 搜索与规划 └── 专家系统(已衰落) 而在所有的方向中,强化学习和深度学习无疑是最热门的方向,这里列出它们的内部结构: 深度学习 深度学习 ├── 模型架构 │ ├── CNN(图像) │ ├── RNN/LSTM(序列,已被 Transformer 替代) │ ├── Transformer ← 当代核心架构,LLM/CLIP/ViT 都用它 │ ├── GAN(生成对抗网络) │ └── Diffusion Model(扩散模型,DALL·E、Stable Diffusion) │ ├── 训练范式 │ ├── 标准训练(i.i.d 假设,数据独立同分布) │ ├── 迁移学习 Transfer Learning │ │ ├── Fine-tuning(微调预训练模型) │ │ ├── Domain Adaptation(DA) │ │ ├── Domain Generalization(DG)← 我的方向 │ │ └── Prompt Tuning(提示微调)← CLIP 方向 │ ├── 自监督学习 Self-Supervised Learning(SSL) │ │ └── 对比学习(SimCLR、MoCo) │ ├── 元学习 Meta-Learning("学会学习") │ │ └── MAML 等,FedDG 常借用 │ └── 联邦学习 Federated Learning │ └── FedDG = 联邦学习 + 域泛化 ← 我的方向! │ └── 应用方向 ├── CV:分类、检测、分割、深度估计 ├── NLP:问答、翻译、摘要 ├── 多模态:图文对齐、VQA └── 机器人:感知、规划、控制 一些英文缩写的含义: ...