当前位置: 首页 > news >正文

多模态学习、迁移学习、元学习、联邦学习、表示学习、知识图谱、无监督学习、半监督学习、弱监督学习、自监督学习简介

多模态学习

Multimodal Learning :文本、视觉、声音模态结合的学习

迁移学习

transfer learning:在某训练集上训练后的模型(预训练模型),相似训练集再进行训练后可以使用

域适应

domain adaptation: 把两个训练集上的数据,都投影到某一个共同的空间上 (Space)。在这个空间上Source 和 Target的数据差异会变小,就可以当成同一个数据集了,我们就能用各种分类器在这个空间上进行训练了。

元学习

meta-learning,(learning to learn) : (优化器) 元学习可以简单地定义为获取知识多功能性的能力。人类能够以最少的信息同时获取多个任务。我们可以通过查看单张图片来识别一种新物体,也可以同时学习复杂的多任务活动,比如开车或驾驶飞机。一些元学习模型关注的是优化神经网络结构,而另一些模型(如Reptile)则更注重于寻找合适的数据集来训练特定的模型。

目标就是通过学习大量的任务,从而学习到内在的元知识,从而能够快速的处理新的同类任务

联邦学习

(federated learning): 在保障信息安全和数据隐私前提下,在多参与方或多计算结点之间开展高效率的机器学习。例用于两家企业信息联合训练同一模型,需要加密样本对其、模型训练、效果激励

  • 横向联邦学习horizontal: 适用于参与者的数据特征重叠较多,而样本ID重叠较少的情况(横向的一行表示一条训练样本,纵向的一列表示一个数据特征)
  • 纵向联邦学习vertical: 适用于参与者训练样本ID重叠较多,而数据特征重叠较少的情况。
  • 联邦迁移学习: 适用于参与者训练样本ID和数据特征重叠都较少的情况。 不对数据进行切分,而利用迁移学习来克服数据或标签不足的情况

表示学习

Representation Learning:(深度学习时代) 采用模型自动学习数据的隐式特征,数据表示与后续任务往往是联合训练,不依赖专家经验,但需要较大的训练数据集。

表征学习的目的是对复杂的原始数据化繁为简,把原始数据的无效信息剔除,把有效信息更有效地进行提炼,形成特征,这也应和了机器学习的一大任务——可解释性

■特征工程(机器学习时代):依靠专家提取显式特征,工程量巨大,特征选取的好坏将直接决定数据表示的质量从而影响后续任务的性能。

知识图谱

Knowledge Graph:即语义网络(semantic network)的知识库,即具有有向图结构的一个知识库。通俗一点说:知识图谱是由实体、关系和属性组成的一种数据结构。

监督学习

  1. 半监督:利用数据分布上的模型假设建立学习器对未标签样例进行标签。通常是两阶段的训练,先用(较小规模的)有标签数据训练一个Teacher模型,再用这个模型对(较大规模的)无标签数据预测伪标签,作为Student模型的训练数据;
  2. 自监督:在无标注数据上训练,通过一些方法让模型学习到数据的inner representation,再接下游任务,例如加一个mlp作为分类器等。但接了下游任务之后还是需要在特定的有标签数据上finetune,只是有时候可以选择把前面的层完全固定,只finetune后面接的网络的参数。自监督数据监督来源于数据本身,例如通过拼图方式构造。
  3. 弱监督:用包含噪声的有标签数据训练。(半监督与弱监督只是都从标记角度定义,但是涉及的算法不一样
  • 不完全监督:只有一部分训练数据具备标签;
  • 不确切监督:训练数据只具备粗粒度标签;例如,在药物活性预测 [40] 的问题中,其目标是建立一个模型学习已知分子的知识,来预测一个新的分子是否适合制造一种特定药物。一个分子可以有很多的低能量形状,而这些分子是否能用于制药取决于这些分子是否具有某些特殊的形状。然而即使对于已知的分子,人类专家也仅知道该分子是否适合制药,而不知道其中决定性的分子形状是什么。
  • 不准确监督:给出的标签并不总是真值。
  1. 多示例学习:学习者不是接收一组单独标记的实例,而是接收一组带标签的包,每个包含许多实例。
  2. 少样本学习:元学习目标设定是一样的。
    零样本学习:和少样本学习不一样的地方在于零样本学习不给样本,而是给出一个代表某一类物体语义的嵌入向量,我们要直接利用这个嵌入向量来对物体做分类。

分类问题

目标值:类别(猫狗)
k-近邻算法、贝叶斯分类、决策树与随机森林、逻辑回归

回归问题

目标值:连续型的数据(房价)

线性回归、岭回归

无监督学习

无目标值,例:聚类、k-means

相关文章:

  • 剑指offer 63. 和为S的两个数字
  • 【VUE基础】webpack
  • 机器人轨迹规划中经常用到的曲线特性小结:Cn连续与Gn连续、Frenet标架、曲率和挠率
  • 【深度学习】卷积神经网络CNN入门介绍
  • Android Studio 提示:更新 TKK 失败,请检查网络连接
  • 枚举类型详解
  • 机器学习笔记 - 在Vehicles数据集上训练 YOLOv5 目标检测器
  • win10系统安装虚拟机centos
  • 从零备战蓝桥杯——二叉树及相关题目(基础篇)
  • 软件企业和双软企业的区别
  • 字节跳动安全Ai挑战赛-基于文本和多模态数据的风险识别总结
  • DRF-(10)
  • java面试-GC垃圾回收机制
  • TOREX | 如何延长设备的电池寿命?——充电IC
  • 电路方案分析(十一)低电平(5uA)V-I转化器
  • 【译】JS基础算法脚本:字符串结尾
  • 8年软件测试工程师感悟——写给还在迷茫中的朋友
  • Javascript编码规范
  • yii2权限控制rbac之rule详细讲解
  • 不上全站https的网站你们就等着被恶心死吧
  • 服务器从安装到部署全过程(二)
  • 个人博客开发系列:评论功能之GitHub账号OAuth授权
  • 聊聊sentinel的DegradeSlot
  • 让你成为前端,后端或全栈开发程序员的进阶指南,一门学到老的技术
  • 深度学习入门:10门免费线上课程推荐
  • 写给高年级小学生看的《Bash 指南》
  • 一起来学SpringBoot | 第十篇:使用Spring Cache集成Redis
  • 如何正确理解,内页权重高于首页?
  • # 计算机视觉入门
  • #我与Java虚拟机的故事#连载02:“小蓝”陪伴的日日夜夜
  • #我与Java虚拟机的故事#连载08:书读百遍其义自见
  • ()、[]、{}、(())、[[]]命令替换
  • (4)Elastix图像配准:3D图像
  • (52)只出现一次的数字III
  • (Java岗)秋招打卡!一本学历拿下美团、阿里、快手、米哈游offer
  • (pytorch进阶之路)扩散概率模型
  • (六)激光线扫描-三维重建
  • (七)Knockout 创建自定义绑定
  • (七)微服务分布式云架构spring cloud - common-service 项目构建过程
  • (三)mysql_MYSQL(三)
  • (学习日记)2024.04.04:UCOSIII第三十二节:计数信号量实验
  • (一)C语言之入门:使用Visual Studio Community 2022运行hello world
  • **PHP分步表单提交思路(分页表单提交)
  • *Algs4-1.5.25随机网格的倍率测试-(未读懂题)
  • .gitignore文件---让git自动忽略指定文件
  • .NET 4 并行(多核)“.NET研究”编程系列之二 从Task开始
  • .net CHARTING图表控件下载地址
  • .Net mvc总结
  • .NET 跨平台图形库 SkiaSharp 基础应用
  • .Net 应用中使用dot trace进行性能诊断
  • .NET/C# 使窗口永不激活(No Activate 永不获得焦点)
  • .NET分布式缓存Memcached从入门到实战
  • .sys文件乱码_python vscode输出乱码
  • @LoadBalanced 和 @RefreshScope 同时使用,负载均衡失效分析
  • @value 静态变量_Python彻底搞懂:变量、对象、赋值、引用、拷贝