课程 | 内容 |
---|---|
第1课时:多模态AI概述与发展脉络 |
Modalities分类:图像、文本、语音、视频、传感器等
多模态研究渠道:从浅层融合到统一架构(HDL/MVLA)
关键挑战:模态异构性、对齐机制、时序与空间维度统一
应用场景:AIGC、医疗、自动驾驶、视频分析、安防、推荐
|
第2课时:模态表示与对齐技术 |
图像表示:CNN,VIT
文本表示:BERT,GPT
语音/音频表示:MFCC,Whisper
视觉表示:3D-CNN、SlowFast、Video-Swin Transformer、TimeSformer
表征对齐方法:Early/LateFusion、CrossAttention、CLIP、X-CLIP
|
第3课时:多模态融合与对比学习 |
融合方式:共享语义空间、跨模态注意力机制
对比学习方法:SimCLR、CLIP、X-CLIP、ALBEF
实战演示:用CLIP实现图文相似检索;用X-CLIP实现图文视频检索
|
第4课时:基础架构与主流模型创新 |
模型剖析:CLIP/BLIP/Flamingo/Kosmos/Video-LLaMA/InternVid
多模态大模型结构:编码器、解码器、交叉模态层
数据集:COCO、Flickr30K、VQA、HowTo100M、YouCook2、Ego4D、ActivityNet
|
课程 | 内容 |
---|---|
第5课时:视频问答与视频摘要 |
视频问答(Video-QA)任务定义:开放式Vs选择式
主流方法:TVQA、VQA-T、UniVL
视频摘要:静地抽取vs语义提炼,Text-to-VideoSummary
实战:用Video-LLaMA进行视频问答;EgoSchema生成视频摘要
|
第6课时:视频理解与动作识别 |
动作习胜SlowFast、13D、TSN等架构对比
视频时间建模技巧:TSM、TimeSformer、Video-Swin
应用案例:体育分析、安防监控、行为预测
实战:用SlowFast对视频进行行为分类和剪辑定位
|
第7课时:视频生成与AIGC能力 |
Text-to-Video生成Make-A-Video、Phenaki、Sora等
图像引导视频生成:VideoCrafter、AnimateDiff、Pika
Prompt设计:时间轴控制、主体/背景限定
实战:用VideoCrafter实现从文本描述生成短视频
|
第8课时:多模态模型微调与评估 |
微调方式LoRA、Adapter、Prompt-tuning(语义微调适配)
多模态评估指标:Recall@k、CIDEr、FVD、CLIPScore
数据挑战:视频数据大小与帧率对齐的影响
实战:用LoRA微调一个短视频文本匹配模型(XID-CLIP)
|
课程 | 内容 |
---|---|
第9课时:视频与视觉智能体(VLA) |
视频+语言智能体架构(VLA)与主动感知能力
LangChain+视频输入+动作输出的管道式智能体
案例:机器人识别视频任务指令并执行(抓取、搬运等)
实战:构建一个视频理解+行动智能体
|
第10课时:视频推荐与多模态搜索系统 |
多模态推荐架构:视频embedding、用户画像、上下文建模
应用场景:短视频平台(抖音、YouTube)、推荐推荐
实战:视频内容理解+用户兴趣召回+TopN排序推荐系统
|
第11课时:视频理解在医疗与工业中的应用 |
医疗:术中视频辅助决策、内窥镜视频诊断
工业:设备操作流程识别、异动动作检测
案例:SangClip、VIT基于图像行为识别
实战:用视频理解模型进行一段操作视频的流程标注
|
第12课时:开源框架与系统部署 |
开源视频模型:InternVid、Video-LLaMA、X-CLIP、NMAction2
部署方式:Streamlit+赣珠上传、FastAPI实时视频问答接口
实战:部署支持视频问答/摘要/检索的多模态系统
|