Welcome To Penny's Blog
Penny’s Blog 欢迎来到我的博客 终于有一个自己的博客了,可以在这里尽情的发东西了 目前我会更新现在大学的知识点,知识点笔记,练习,视频讲解,大家一起加油! 这里的内容包含以下: 数学 🕵️♂️ Markov Process Modern Probability Multivariate statistics and machine learning Machine learning and application Problem solving by computer 计算机 Introduction to AI
intro to finance
Finance Modelling 开始观看 前提知识点 Derivatives(衍生品) 定义:衍生品是一种金融产品,其价值来源于另一种产品的价格或价值。 例子:它的标的资产可以是股票、商品(如石油、黄金)、汇率(如欧元兑英镑)等。 主要种类: Forwards(远期合约):在未来某个日期以预先约定的价格交易标的资产。 Futures(期货合约):与远期类似,但在交易所交易,具有标准化特性。 Options(期权):赋予持有者在未来某日期按规定价格买入或卖出标的资产的权利。 Swaps(互换):两方协议,双方约定在未来某一时期内,交换一系列现金流(比如说利率互换:企业A有固定利率贷款,但想利用市场上较低的浮动利率,于是通过互换协议与企业B交换利率支付) 这类产品的关键在于,它们依赖于某种标的资产的波动,而不直接拥有资产本身。 Underlying...
Time series(1)
Time Series 开始观看 什么是时间序列? 时间序列的定义 时间序列是一个随机过程,可以记作 {xt,t∈T}\{x_t, t \in T\}{xt,t∈T},其中 ttt 表示时间, xtx_txt 表示观测数据。 离散参数时间序列 当 T=ZT = \mathbb{Z}T=Z(整数集)时,时间序列称为离散参数时间序列: 时间点是等间隔的,比如每小时、每天、每周、每年等。 通常假设时间序列可以追溯到无限过去。 连续参数时间序列 如果 T=RT = \mathbb{R}T=R(实数集),时间序列就是连续参数的。例如,时间可以是任意实数值。 连续转离散 有些情况下,连续时间序列可以通过采样变成离散序列,比如每天中午的温度(如果我们要记录每时每刻温度的变化,那么此时就是连续时间序列,但如果我们每天只记录中午12点的气温。这种记录方式就相当于对连续序列进行了采样,时间点变成离散的)现实中这种采样例子有很多,比如说从股票的每秒变动记录中提取每天的收盘价。 Finite realization and learning from historical...
NLP_ Information-seeking Tasks
🏂Computer version 开始观看 🥕 NLP_ Information-seeking Tasks ⛺Text Classification Text Classification是NLP中一个重要的任务,其目标是将一段文本分配到预定义的类别中。例如: 语言识别:判断一段文本是英语、中文还是其他语言。 流派分类:将一本书或电影的描述归为科幻、喜剧等类别。 垃圾邮件检测:判断一封邮件是“垃圾邮件(spam)”还是“正常邮件(ham)”。 📚示例: 垃圾邮件(Spam)的特点: 包含大量广告词汇,如“buy now”,“discount”。 通常会使用不规范的字符混淆,例如“ViagraFr$1.85”。 正常邮件(Ham)的特点: 语言自然,没有明显的广告倾向。 你可以将垃圾邮件分类类比为一个超市工作人员检查货物是否损坏。垃圾邮件类似有瑕疵的货物,正常邮件则是可以直接上架的商品。 ⛺Pre-processing...
Natural Language Processing Language Models
🏂Computer version 开始观看 🥕 Natural Language Processing Language Models ⛺自然语言处理(NLP)与语言模型 🪐处理自然语言的能力 人与其他物种的区别: 人类能够通过自然语言进行交流和获取信息,这是区分人类与其他物种的重要特征。 与图灵测试的关系: 自然语言处理是图灵测试的基础,图灵测试评估机器是否能够表现出与人类智能行为相当的能力。 为什么需要这种能力? 机器需要 获取信息:例如,从文章中提取有用的数据。 进行交流:例如,聊天机器人用自然对话回答你的问题。 🪐通过NLP实现知识获取 理解含糊的语言: 自然语言经常模糊且依赖上下文,机器需要像人类一样理解这些复杂性,才能准确处理语言。 信息检索任务: 文本分类:比如将电子邮件分类为垃圾邮件或正常邮件。 信息检索:搜索引擎根据你的问题找到最相关的网页。 信息抽取:从新闻中提取关键信息,例如人名、地点和日期。 ...
Natural Language for Communication
🏂Computer Version 开始观看 🥕 Natural Language for Communication ⛺Capacity to Process Natural Language 为什么处理自然语言(Natural Language Processing, NLP)的能力重要? 获取信息(Acquire information):NLP使计算机能够从书面语言中提取信息。例如,你可以通过搜索引擎获取论文的核心信息,也可以用智能助手如Siri从互联网查询天气信息。 与人类交流(Communicate with humans):让计算机能够通过自然语言与人类交流,例如聊天机器人能够用普通的对话方式回答你的问题,这在客服和教育领域尤其有用。 为了实现自然语言的深度理解,需要用到以下语法模型(Grammatical models): 词汇类别(Lexical...
Robotics
🏂Computer version 🥕 Robotics 开始观看 ⛺什么是机器人 (Robots)? 机器人是可以执行任务的物理代理 (agent),它们通过 导航 或 操作物理环境 来完成任务。 组成部分: Sensors (传感器):帮助机器人感知环境。 Effectors (执行器):使机器人能够对环境施加物理作用。 Agent (代理):指代机器人本身。 🪐传感器 (Sensors) 传感器是机器人的“眼睛”和“耳朵”,让机器人能感知周围环境的信息。 📝例子: 红外传感器:检测障碍物。 相机:捕捉图像。 陀螺仪:感知方向和姿态。 假设机器人通过传感器获取环境信息 sss,例如距离 ddd,传感器通过公式 s=f(e)s = f(e)s=f(e) 转化环境信息 eee 为数字信号。比如,超声波传感器通过计算声波返回的时间 ttt 来得出距离: d=vt2d = \frac{vt}{2} d=2vt 其中 vvv 是声速。 🪐执行器...
Transition Rates Forward Equations and Applications
🏂Markov Process ⚡ 问题背景 开始观看 在离散时间的 Markov 过程(Discrete-Time Markov Chains, DTMC)中,我们可以通过幂运算计算转移矩阵 PnP^nPn 来得到状态之间的转移概率。然而,在连续时间 Markov 过程(Continuous-Time Markov Chains, CTMC)中,这种方法不再适用。 因为在连续时间下,我们关注状态之间在非常短的时间 ttt 内的转移概率,通常记为 pjk(t)p_{jk}(t)pjk(t)。这里的 pjk(t)p_{jk}(t)pjk(t) 表示从状态 jjj 转移到状态 kkk 的概率。 如果状态空间 SSS 是无限的,分析会变得非常复杂。因此,我们常假设状态空间 ∣S∣|S|∣S∣ 是有限的,即 ∣S∣<∞|S| < \infty∣S∣<∞。 ⛺定理1:转移率(Transition Rate) 定义:对于 j≠k∈Sj \neq k \in Sj=k∈S,有 qjk=qjrjk(1)q_{jk} = q_j...
Universal approximation theorem and Convex optimisation
🏂Machine learning application 开始观看 🥕 Universal approximation theorem ⛺什么是万能近似定理? 万能近似定理的核心思想是:只要有足够多的神经元和适当的激活函数,一个具有单隐藏层的前馈神经网络就可以以任意精度逼近任何连续函数。 换句话说:神经网络的结构非常强大,可以用来模拟从输入到输出的各种复杂关系 ⛺公式 输入和输出空间: 输入空间 X⊆RM\mathcal{X} \subseteq \mathbb{R}^MX⊆RM:比如一个学生的学习成绩包含 MMM 门课程的分数。 输出空间 Y⊆R\mathcal{Y} \subseteq \mathbb{R}Y⊆R:比如预测这个学生未来考试的总分。 神经网络的假设空间: Mφ={h:h(x)=⟨w(2),φ(W(1)x+b(1))⟩ | p∈N,W(1)∈Rp×M,b(1)∈Rp,w(2)∈Rp}\mathcal{M}_\varphi = \left\{ h : h(x) = \langle w^{(2)}, \varphi(W^{(1)}x +...
measure therory-expectation and limits in prob space
🏂Modern Prob 开始观看 🥕 Expectation ⛺什么是期望? 首先,我们假设有一个随机变量 XXX,它是在概率空间 (Ω,F,P)(\Omega, \mathcal{F}, \mathbb{P})(Ω,F,P) 上定义的。简单来说,这意味着 XXX 在某种“世界”中随机地取值,而我们希望了解它的“平均值”或“期望”,也就是 E(X)\mathbb{E}(X)E(X)。在这个世界中,Ω\OmegaΩ 是所有可能发生的情况的集合(称为样本空间),F\mathcal{F}F 是这些事件的集合,P\mathbb{P}P 是每个事件发生的概率。 我们可以将期望 E(X)\mathbb{E}(X)E(X) 想象成这样一个问题:假设你每次从一个袋子中随机取一个数 XXX,那么你取到的数的平均值会是多少呢?这就是我们要用 Lebesgue-Stieltjes 积分来计算的。 公式: E(X):=∫ΩX dP\mathbb{E}(X) := \int_{\Omega} X \,...










