10月17日 | 09:00-12:00 (会议楼三层19会议室)
邱怡轩
邱怡轩

上海财经大学统计与数据科学学院

统计学视角下的大语言模型基础课:3小时的直觉之旅

邱怡轩,上海财经大学统计与数据科学学院副教授,博士毕业于普渡大学统计系,毕业后曾于卡内基梅隆大学担任博士后研究员。主要研究方向包括深度学习、生成式人工智能和大规模统计计算与优化等,科研成果发表在统计学国际权威期刊及机器学习顶级会议上。长期参与建设统计学与数据科学社区“统计之都”,是众多开源软件(如Spectra/RSpectra、LBFGS++、ReHLine、showtext、prettydoc 等)的开发者与维护者。

课程目标

大语言模型有许多种不同的理解方式和学习路径。本次短课将从统计学的视角出发,解析 Transformer 和大语言模型(LLM)背后的统计原理和建模思路,目标是让学员建立直观的认知,而非仅仅了解其现有结构。

贯穿本次短课的一条主线是回答如下几个问题:

  1. 如果让我们“重新发明”一次 Transformer,我们会依照怎样的思路去解决问题?
  2. 为什么 Transformer 变成了现在的这个形态?它是完美的吗?
  3. 如果我们想要改进或扩展 Transformer,我们可能有哪些选择?
目标学员

我们预计本次短课将对以下三类学员有所助益和启发:

  1. 对人工智能和 LLM 感兴趣,但还没有进行过系统性学习,想了解 LLM 的概况和发展历程
  2. 具有统计学专业背景的老师和同学,期望能将已经具备的统计学知识迁移到 LLM 等前沿领域
  3. 正在从事 LLM 的研究和应用,想获取一些灵感来改进现有的方法和模型

本次短课期望目标学员具备基础的统计学和概率论知识(例如了解条件概率、极大似然估计等),最好还了解基本的机器学习概念(例如知道什么是神经网络、损失函数等)。

10月17日 | 14:00-17:00 (会议楼三层19会议室)
张源源
张源源

Gooddriver.ai

从个人增效到Agent落地:大模型应用应知应会

张源源,Gooddriver.ai AI负责人,中国人民大学校外导师,中国商业统计学会人工智能分会常务理事,数据科学社区统计之都常务理事。

长期跟踪人工智能方向前沿技术发展,发表了多篇人工智能方向顶级论文,有多项相关专利。在百度、阿里有过行业内开创性的工作,是多个知名大模型开源项目如 LangChain、Dify 等的 committer,多次受邀在 AIcon、清华、人大、中科院、Atypical Ventures 进行 LLM 交流,目前在出海做一款创新车损互助产品,做行业内第一个 end-to-end agent。

课程目标
  • 熟悉科研工作者的 3 类效率倍增器应用:做调研、跑代码、写报告
  • 建立正确的大模型使用心智:模型是概率式、非确定、会幻觉、会受提示与上下文分布漂移影响
  • 了解 Agent 开发的关键细节:Prompt engineering、RAG、SFT、RLFT、Agent Infra
  • 熟悉可重复实验在工程中的落地:提示、参数、索引、模型版本化,离线—在线闭环评测
目标学员

对大模型应用感兴趣的从业者/学习者,有 LLM 使用经验、应用开发经验尤佳。

课程大纲
  1. 科研工作者的 3 类效率倍增器应用:做调研、跑代码、写报告
    • 做调研——问题分解|检索计划|证据表
    • 跑代码——仓库速读|意图澄清|单测与调试
    • 写报告——先结构后文风|证据插槽|版式与合规
  2. 使用好大模型的应知应会
    • 心智模型
    • prompt 技巧
    • 进阶和前沿
  3. 开发大模型应用的应知应会
    • Agent 的内涵外延
    • Agent 关键技术介绍
    • Fail → Fix 工程实践介绍
    • Agent infra 介绍