W门大学-3528元-人工智能、大数据与复杂系统
- 宣传片
- 第 1 讲宣传片
- 1.1宣传片
- 第 2 讲复杂系统
- 2.1物理预测的胜利与失效
- 2.2预测失效原因
- 2.3复杂系统引论
- 2.4生活实例与本章答疑
- 第 3 讲大数据与机器学习
- 3.1大数据预测因为噪声失效
- 3.2大数据与机器学习
- 第 4 讲人工智能的三个阶段
- 4.1规则阶段
- 4.2机器学习阶段发展至连接主义阶段
- 4.3课间答疑
- 4.4连接主义阶段发展至深度学习阶段
- 4.5三个阶段总结分析
- 4.6人工智能的应用(一)
- 4.7人工智能的应用(二)
- 4.8课间答疑
- 4.9课程大纲(一)
- 4.10课程大纲(二)
- 第 5 讲高等数学—元素和极限
- 5.1实数的定义(一)
- 5.2实数的定义(二)
- 5.3实数的定义(三)
- 5.4实数的元素个数(一)
- 5.5实数的元素个数(二)
- 5.6自然数个数少于实数个数(一)
- 5.7自然数个数少于实数个数(二)
- 5.8无穷大之比较(一)
- 5.9无穷大之比较(二)
- 5.10级数的收敛
- 5.11极限的定义
- 5.12极限的四则运算
- 5.13极限的复合
- 5.14连续性
- 第 6 讲复杂网络经济学应用
- 6.1用网络的思维看经济结构
- 6.2复杂网络认识前后
- 6.3从网络结构看不同地区(一)
- 6.4从网络结构看不同地区(二)
- 第 7 讲机器学习与监督算法
- 7.1什么是机器学习
- 7.2机器学习的类型
- 7.3简单回归实例(一)
- 7.4简单回归实例(二)
- 7.5简单回归实例(三)
- 第 8 讲阿尔法狗与强化学习算法
- 8.1人工智能的发展
- 8.2强化学习算法(一)
- 8.3强化学习算法(二)
- 8.4强化学习算法(三)
- 8.5Alphago给我们的启示
- 8.6无监督学习
- 第 9 讲高等数学—两个重要的极限定理
- 9.1元素与极限的知识点回顾
- 9.2第一个重要极限定理的证明(一)
- 9.3第一个重要极限定理的证明(二)
- 9.4夹逼定理
- 9.5第二个重要极限定理的证明
- 第 10 讲高等数学—导数
- 10.1导数的定义
- 10.2初等函数的导数
- 10.3反函数的导数(一)
- 10.4反函数的导数(二)
- 10.5复合函数的导数
- 10.6泰勒展开
- 10.7罗尔定理
- 10.8微分中值定理和柯西中值定理
- 10.9洛比塔法则
- 10.10泰勒展开的证明
- 第 11 讲贝叶斯理论
- 11.1梯度优化(一)
- 11.2梯度优化(二)
- 11.3概率基础
- 11.4概率与事件
- 11.5贝叶斯推理(一)
- 11.6贝叶斯推理(二)
- 11.7贝叶斯推理(三)
- 11.8辛普森案件
- 11.9贝叶斯推理深入
- 11.10贝叶斯于机器学习(一)
- 11.11贝叶斯于机器学习(二)
- 11.12贝叶斯决策(一)
- 11.13贝叶斯决策(二)
- 11.14贝叶斯决策(三)
- 第 12 讲高等数学—泰勒展开
- 12.1泰勒展开
- 12.2展开半径
- 12.3欧拉公式
- 12.4泰勒展开求极限(一)
- 12.5泰勒展开求极限(二)
- 第 13 讲高等数学—偏导数
- 13.1偏导数的对称性
- 13.2链式法则
- 13.3梯度算符、拉氏算符
- 第 14 讲高等数学—积分
- 14.1黎曼积分
- 14.2微积分基本定理
- 14.3分部积分(一)
- 14.4分部积分(二)
- 第 15 讲高等数学—正态分布
- 15.1标准正态分布
- 15.2中心极限定理
- 15.3误差函数
- 15.4二维正态分布
- 15.5多维正态分布
- 第 16 讲朴素贝叶斯和最大似然估计
- 16.1蒙特卡洛分析(一)
- 16.2蒙特卡洛分析(二)
- 16.3贝叶斯先验
- 16.4先验到后验的过程
- 16.5朴素贝叶斯(一)
- 16.6朴素贝叶斯(二)
- 16.7算法设计
- 16.8TF-IDF(一)
- 16.9TF-IDF(二)
- 16.10朴素贝叶斯(三)
- 16.11最大似然估计(一)
- 16.12最大似然估计(二)
- 第 17 讲线性代数—线性空间和线性变换
- 17.1线性代数概述
- 17.2线性代数应用方法论
- 17.3线性乘法的可交换性和结合律
- 17.4线性空间
- 17.5线性空间八条法则(一)
- 17.6线性空间八条法则(二)
- 17.7线性空间八条法则(三)
- 17.8连续傅立叶变换
- 17.9离散傅立叶变换
- 17.10非常规线性空间
- 17.11线性相关和线性无关
- 17.12秩
- 第 18 讲数据科学和统计学(上)
- 18.1课程Overview
- 18.2回顾统计学(一)
- 18.3回顾统计学(二)
- 18.4回顾统计学(三)
- 18.5回顾数据科学(一)
- 18.6回顾数据科学(二)和教材介绍
- 18.7R和RStudio等介绍(一)
- 18.8R和RStudio等介绍(二)
- 18.9随机变量(一)
- 18.10随机变量(二)
- 18.11换门的概率模拟计算(一)
- 18.12换门的概率模拟计算(二)
- 18.13换门的概率模拟计算(三)
- 第 19 讲线性代数—矩阵、等价类和行列式
- 19.1线性代数知识点回顾
- 19.2矩阵表示线性变化
- 19.3可逆矩阵表示坐标变化
- 19.4相似矩阵
- 19.5相似矩阵表示相同线性变化
- 19.6线性代数解微分方程
- 19.7矩阵的运算—转秩(一)
- 19.8矩阵的运算—转秩(二)
- 19.9等价关系
- 19.10等价类
- 19.11行列式(一)
- 19.12行列式(二)
- 19.13行列式(三)
- 第 20 讲Python基础课程(上)
- 20.1Python介绍(一)
- 20.2Python介绍(二)
- 20.3变量—命名规范
- 20.4变量—代码规范
- 20.5变量类型—数值类型
- 20.6变量类型—bool类型
- 20.7变量类型—字符串类型(一)
- 20.8课间答疑
- 20.9变量类型—字符串类型(二)
- 20.10变量类型—字符串类型(三)
- 20.11变量类型—列表类型(一)
- 20.12变量类型—列表类型(二)
- 20.13变量类型—列表类型(三)
- 20.14变量类型—元组类型、字典类型(一)
- 20.15变量类型—字典类型(二)
- 第 21 讲线性代数—特征值与特征向量
- 21.1线性代数知识点回顾
- 21.2例题讲解(一)
- 21.3例题讲解(二)
- 21.4例题讲解(三)
- 21.5特征值与特征向量的物理意义
- 21.6特征值与特征向量的性质(一)
- 21.7特征值与特征向量的性质(二)
- 21.8本征值的计算(一)
- 21.9本征值的计算(二)
- 21.10线性代数核心定理
- 21.11对偶空间(一)
- 21.12对偶空间(二)
- 21.13欧氏空间与闵氏空间
- 21.14厄米矩阵
- 第 22 讲监督学习框架
- 22.1经验误差和泛化误差
- 22.2最大后验估计
- 22.3正则化
- 22.4lasso回归
- 22.5超参数(一)
- 22.6超参数(二)
- 22.7监督学习框架(一)
- 22.8监督学习框架(二)
- 22.9KNN(K最近邻)算法(一)
- 22.10KNN(K最近邻)算法(二)
- 22.11KNN(K最近邻)算法(三)
- 22.12线性分类器
- 22.13高斯判别模型(一)
- 22.14高斯判别模型(二)
- 第 23 讲Python基础课程(下)
- 23.1条件判断(一)
- 23.2条件判断(二)
- 23.3循环(一)
- 23.4循环(二)
- 23.5课间答疑
- 23.6循环(三)
- 23.7循环(四)
- 23.8函数(一)
- 23.9函数(二)
- 23.10函数(三)
- 23.11函数(四)
- 23.12类(一)
- 23.13类(二)
- 23.14类(三)
- 第 24 讲PCA、降维方法引入
- 24.1无监督学习框架
- 24.2降维存在的原因
- 24.3PCA数学分析方法(一)
- 24.4PCA数学分析方法(二)
- 24.5PCA数学分析方法(三)
- 24.6PCA数学分析方法(四)
- 24.7PCA之外的降维方法—LDA
- 24.8PCA背后的假设(一)
- 24.9PCA背后的假设(二)
- 第 25 讲数据科学和统计学(下)
- 25.1课程Overview
- 25.2理解统计思想(一)
- 25.3理解统计思想(二)
- 25.4理解统计思想(三)
- 25.5概率空间
- 25.6随机变量(一)
- 25.7随机变量(二)
- 25.8随机变量(三)
- 25.9随机变量(四)
- 25.10参数估计(一)
- 25.11参数估计(二)
- 25.12假设检验(一)
- 25.13假设检验(二)
- 第 26 讲Python操作数据库、 Python爬虫
- 26.1课程介绍
- 26.2认识关系型数据库(一)
- 26.3认识关系型数据库(二)
- 26.4MySQL数据库与Excel的不同
- 26.5命令行操作数据库(一)
- 26.6命令行操作数据库(二)
- 26.7命令行操作数据库(三)
- 26.8命令行操作数据库(四)
- 26.9Python操作数据库(一)
- 26.10Python操作数据库(二)
- 26.11Python操作数据库(三)
- 26.12Python操作数据库(四)
- 26.13Python爬虫(一)
- 26.14Python爬虫(二)
- 26.15Python爬虫(三)
- 26.16Python爬虫(四)
- 26.17Python爬虫(五)
- 第 27 讲线性分类器
- 27.1Lasso:alpha参数与准确率(一)
- 27.2Lasso:alpha参数与准确率(二)
- 27.3Lasso:alpha参数与准确率(三)
- 27.4线性分类器
- 27.5LDA(一)
- 27.6LDA(二)
- 27.7LDA(三)
- 27.8Perceptron(一)
- 27.9Perceptron(二)
- 27.10Perceptron(三)
- 27.11Perceptron(四)
- 27.12熵与信息(一)
- 27.13熵与信息(二)
- 第 28 讲Python进阶(上)
- 28.1NumPy基本操作(一)
- 28.2NumPy基本操作(二)
- 28.3NumPy基本操作(三)
- 28.4NumPy基本操作(四)
- 28.5NumPy基本操作(五)
- 28.6NumPy基本操作(六)
- 28.7Pandas基本操作(一)
- 28.8Pandas基本操作(二)
- 28.9Pandas基本操作(三)
- 28.10Pandas基本操作(四)
- 28.11Pandas绘图(一)
- 28.12Pandas绘图(二)
- 28.13Pandas绘图(三)
- 28.14Pandas绘图(四)
- 第 29 讲Scikit-Learn
- 29.1课程介绍
- 29.2Scikit-Learn介绍
- 29.3数据处理(一)
- 29.4数据处理(二)
- 29.5模型实例、模型选择(一)
- 29.6模型实例、模型选择(二)
- 29.7模型实例、模型选择(三)
- 29.8模型实例、模型选择(四)
- 29.9模型实例、模型选择(五)
- 第 30 讲熵、逻辑斯蒂回归、SVM引入
- 30.1熵(一)
- 30.2熵(二)
- 30.3熵(三)
- 30.4熵(四)
- 30.5熵(五)
- 30.6熵(六)
- 30.7熵(七)
- 30.8逻辑斯蒂回归(一)
- 30.9逻辑斯蒂回归(二)
- 30.10逻辑斯蒂回归(三)
- 30.11逻辑斯蒂回归(四)
- 30.12逻辑斯蒂回归(五)
- 30.13SVM引入
- 第 31 讲Python进阶(下)
- 31.1泰坦尼克数据处理与分析(一)
- 31.2泰坦尼克数据处理与分析(二)
- 31.3泰坦尼克数据处理与分析(三)
- 31.4泰坦尼克数据处理与分析(四)
- 31.5泰坦尼克数据处理与分析(五)
- 31.6泰坦尼克数据处理与分析(六)
- 31.7泰坦尼克数据处理与分析(七)
- 31.8泰坦尼克数据处理与分析(八)
- 31.9泰坦尼克数据处理与分析(九)
- 第 32 讲决策树
- 32.1决策树(一)
- 32.2决策树(二)
- 32.3决策树(三)
- 32.4决策树(四)
- 第 33 讲数据呈现基础
- 33.1课程安排
- 33.2什么是数据可视化
- 33.3设计原则
- 33.4数据可视化流程
- 33.5视觉编码
- 33.6图形选择(一)
- 33.7图形选择(二)
- 33.8图形选择(三)
- 第 34 讲云计算初步
- 34.1Hadoop介绍
- 34.2Hdfs应用(一)
- 34.3Hdfs应用(二)
- 34.4MapReduce(一)
- 34.5MapReduce(二)
- 34.6Hive应用(一)
- 34.7Hive应用(二)
- 34.8Hive应用(三)
- 34.9Hive应用(四)
- 第 35 讲D-Park实战
- 35.1Pig应用(一)
- 35.2Pig应用(二)
- 35.3Pig应用(三)
- 35.4Pig应用(四)
- 35.5Pig应用(五)
- 35.6Pig应用(六)
- 35.7Spark应用(一)
- 35.8Spark应用(二)
- 35.9Spark应用(三)
- 35.10Spark应用(四)
- 35.11Spark应用(五)
- 35.12Spark应用(六)
- 35.13Spark应用(七)
- 第 36 讲第四范式分享
- 36.1推荐技术的介绍
- 36.2人是如何推荐商品的
- 36.3推荐系统的形式化以及如何评价推荐结果
- 36.4求解—从数据到模型
- 36.5数据拆分与特征工程
- 36.6推荐系统机器学习模型
- 36.7评估模型
- 36.8建模过程的演示与课间答疑
- 第 37 讲决策树到随机森林
- 37.1决策树
- 37.2随机森林
- 37.3在Scikit-Learn里面如何用随机森林做预测(一)
- 37.4在Scikit-Learn里面如何用随机森林做预测(二)
- 37.5模型参数的介绍
- 37.6集成方法(一)
- 37.7集成方法(二)
- 37.8Blending
- 37.9gt多样化
- 37.10Bagging与决策树(一)
- 37.11Bagging与决策树(二)
- 37.12Boosting方法(一)
- 37.13Boosting方法(二)
- 37.14Boosting方法(三)
- 37.15Boosting方法(四)
- 第 38 讲数据呈现进阶
- 38.1静态信息图(一)
- 38.2静态信息图(二)
- 38.3静态信息图(三)
- 38.4静态信息图(四)
- 38.5静态信息图(五)
- 38.6HTML、CSS和JavaScript基础介绍
- 38.7DOM和开发者工具
- 38.8D3(一)
- 38.9D3(二)
- 38.10D3(三)
- 38.11div.html
- 38.12svg.html
- 38.13D3支持的数据类型
- 38.14Make a map(一)
- 38.15Make a map(二)
- 第 39 讲强化学习(上)
- 39.1你所了解的强化学习是什么
- 39.2经典条件反射(一)
- 39.3经典条件反射(二)
- 39.4操作性条件反射
- 39.5Evaluation Problem(一)
- 39.6Evaluation Problem(二)
- 39.7Evaluation Problem(三)
- 39.8Evaluation Problem(四)
- 39.9Policy Learning(一)
- 39.10Policy Learning(二)
- 39.11Policy Learning(三)
- 39.12Policy Learning(四)
- 39.13Policy Learning(五)
- 39.14Policy Learning(六)
- 第 40 讲强化学习(下)
- 40.1Policy Learning总结
- 40.2基于模型的RL(一)
- 40.3基于模型的RL(二)
- 40.4基于模型的RL(三)
- 40.5基于模型的RL(四)
- 40.6基于模型的RL(五)
- 40.7基于模型的RL(六)
- 40.8大脑中的强化学习算法(一)
- 40.9大脑中的强化学习算法(二)
- 40.10大脑中的强化学习算法(三)
- 40.11大脑中的强化学习算法(四)
- 40.12大脑中的强化学习算法(五)
- 40.13RL in alphaGo(一)
- 40.14RL in alphaGo(二)
- 40.15RL in alphaGo(三)
- 40.16RL in alphaGo(四)
- 第 41 讲SVM和神经网络引入
- 41.1VC维
- 41.2SVM(一)
- 41.3SVM(二)
- 41.4SVM(三)
- 41.5SVM(四)
- 41.6SVM(五)
- 41.7SVM(六)
- 41.8SVM(七)
- 41.9SVM(八)
- 41.10SVM(九)
- 41.11SVM(十)
- 41.12SVM(十一)
- 41.13SVM(十二)和神经网络引入
- 第 42 讲集成模型总结和GDBT理解及其衍生应用
- 42.1集成模型总结(一)
- 42.2集成模型总结(二)
- 42.3集成模型总结(三)
- 42.4集成模型总结(四)
- 42.5集成模型总结(五)
- 42.6GDBT理解及其衍生应用(一)
- 42.7GDBT理解及其衍生应用(二)
- 42.8GDBT理解及其衍生应用(三)
- 42.9GDBT理解及其衍生应用(四)
- 42.10GDBT理解及其衍生应用(五)
- 42.11GDBT理解及其衍生应用(六)
- 42.12GDBT理解及其衍生应用(七)
- 42.13GDBT理解及其衍生应用(八)
- 42.14GDBT理解及其衍生应用(九)
- 42.15GDBT理解及其衍生应用(十)
- 第 43 讲神经网络
- 43.1SVM比较其他分类起代码(一)
- 43.2SVM比较其他分类起代码(二)
- 43.3神经网络(一)
- 43.4神经网络(二)
- 43.5神经网络(三)
- 43.6神经网络(四)
- 第 44 讲监督学习-回归
- 44.1机器学习的概念和监督学习
- 44.2机器学习工作流程(一)
- 44.3机器学习工作流程(二)
- 44.4机器学习工作流程(三)
- 44.5机器学习工作流程(四)
- 44.6案例分析(一)
- 44.7案例分析(二)
- 44.8案例分析(三)
- 44.9案例分析(四)
- 44.10经验分享(一)
- 44.11经验分享(二)
- 44.12经验分享(三)
- 第 45 讲监督学习-分类
- 45.1常用的分类算法
- 45.2模型评估标准和案例分析
- 45.3数据探索(一)
- 45.4数据探索(二)
- 45.5数据探索(三)
- 45.6数据探索(四)
- 45.7数据探索(五)
- 45.8数据探索(六)
- 45.9模型训练与选择(一)
- 45.10模型训练与选择(二)
- 45.11Airbnb数据探索过程(一)
- 45.12Airbnb数据探索过程(二)
- 45.13地震数据可视化过程(一)
- 45.14地震数据可视化过程(二)
- 第 46 讲神经网络基础与卷积网络
- 46.1神经网络(一)
- 46.2神经网络(二)
- 46.3神经网络(三)
- 46.4神经网络(四)
- 46.5神经网络(五)
- 46.6神经网络(六)
- 46.7神经网络(七)
- 46.8神经网络(八)
- 46.9神经网络(九)
- 46.10神经网络(十)
- 46.11图像处理基础
- 46.12卷积(一)
- 46.13卷积(二)
- 第 47 讲时间序列预测
- 47.1时间序列预测概述(一)
- 47.2时间序列预测概述(二)
- 47.3差分自回归移动平均模型(ARIMA)
- 47.4差分自回归移动平均模型(ARIMA)案例分析(一)
- 47.5差分自回归移动平均模型(ARIMA)案例分析(二)
- 47.6差分自回归移动平均模型(ARIMA)案例分析(三)
- 47.7差分自回归移动平均模型(ARIMA)案例分析(四)
- 47.8长短期记忆网络(LSTM)(一)
- 47.9长短期记忆网络(LSTM)(二)
- 47.10长短期记忆网络(LSTM)案例分析
- 47.11Facebook开源的新预测工具—Prophet(一)
- 47.12Facebook开源的新预测工具—Prophet(二)
- 47.13课程答疑
- 第 48 讲人工智能金融应用
- 48.1人工智能金融应用(一)
- 48.2人工智能金融应用(二)
- 48.3人工智能金融应用(三)
- 48.4人工智能金融应用(四)
- 48.5机器学习方法(一)
- 48.6机器学习方法(二)
- 48.7机器学习方法(三)
- 48.8机器学习方法(四)
- 第 49 讲计算机视觉深度学习入门目的篇
- 49.1计算机视觉深度学习入门概述
- 49.2计算机视觉领域正在关心的问题(一)
- 49.3计算机视觉领域正在关心的问题(二)
- 49.4实际问题转化为具体问题并用深度学习解决(一)
- 49.5实际问题转化为具体问题并用深度学习解决(二)
- 49.6实际问题转化为具体问题并用深度学习解决(三)
- 49.7实际问题转化为具体问题并用深度学习解决(四)
- 第 50 讲计算机视觉深度学习入门结构篇
- 50.1复习计算机视觉最主要的负责特征提取的结构CNN
- 50.2特征如何组织(一)
- 50.3特征如何组织(二)
- 50.4特征如何组织(三)
- 50.5特征如何组织(四)
- 50.6结构之间的优劣评判以及实验结果(一)
- 50.7结构之间的优劣评判以及实验结果(二)
- 50.8结构之间的优劣评判以及实验结果(三)
- 50.9结构之间的优劣评判以及实验结果(四)
- 50.10结构之间的优劣评判以及实验结果(五)
- 50.11结构之间的优劣评判以及实验结果(六)
- 50.12结构之间的优劣评判以及实验结果(七)
- 50.13结构之间的优劣评判以及实验结果(八)
- 第 51 讲计算机视觉深度学习入门优化篇
- 51.1计算机视觉深度学习入门:优化篇概述
- 51.2CNN模型的一阶优化逻辑
- 51.3训练稳定性:Annealing和Momentum
- 51.4抗拟合:从Dropout到Weight Decay
- 51.5竞争优化器和多机并行
- 51.6手动超参优化逻辑以及超参优化往何处去
- 第 52 讲计算机视觉深度学习入门数据篇
- 52.1计算机视觉领域的常用竞赛数据集
- 52.2对数据常用的预处理工作和后处理工作如何提高竞赛成绩(一)
- 52.3对数据常用的预处理工作和后处理工作如何提高竞赛成绩(二)
- 52.4如何使用端到端深度学习的方法
- 第 53 讲计算机视觉深度学习入门工具篇
- 53.1计算机视觉深度学习入门工具篇(一)
- 53.2计算机视觉深度学习入门工具篇(二)
- 53.3计算机视觉深度学习入门工具篇(三)
- 第 54 讲个性化推荐算法
- 54.1个性化推荐的发展
- 54.2推荐算法的演进(一)
- 54.3推荐算法的演进(二)
- 54.4推荐算法的演进(三)
- 54.5推荐算法的演进(四)
- 54.6建模step by step(一)
- 54.7建模step by step(二)
- 54.8建模step by step(三)
- 54.9算法评估和迭代
- 54.10工程化实践、常见的问题与解决方法、前沿进展与展望
- 第 55 讲Pig和Spark巩固
- 55.1Pig巩固(一)
- 55.2Pig巩固(二)
- 55.3Pig巩固(三)
- 55.4Pig巩固(四)
- 55.5Pig巩固(五)
- 55.6Spark巩固(一)
- 55.7Spark巩固(二)
- 55.8Spark巩固(三)
- 55.9Spark巩固(四)
- 55.10Spark巩固(五)
- 第 56 讲人工智能与设计
- 56.1智能存在的意义是什么?
- 56.2已有人工智的设计应用
- 56.3人的智能(一)
- 56.4人的智能(二)
- 56.5人的智能的特点(一)
- 56.6人的智能的特点(二)
- 56.7人的智能的特点(三)
- 56.8人工智能(一)
- 56.9人工智能(二)
- 56.10使用人工智能的方式
- 第 57 讲神经网络
- 57.1卷积的本质
- 57.2卷积的三大特点
- 57.3Pooling
- 57.4数字识别(一)
- 57.5数字识别(二)
- 57.6感受野
- 57.7RNN
- 第 58 讲非线性动力学
- 58.1非线性动力学
- 58.2线性动力系统
- 58.3线性动力学与非线性动力学系统(一)
- 58.4线性动力学与非线性动力学系统(二)
- 58.5定点理论
- 58.6Poincare引理
- 第 59 讲高频交易订单流模型
- 59.1高频交易
- 59.2点过程基础(一)
- 59.3点过程基础(二)
- 59.4点过程基础(三)
- 59.5订单流数据分析(一)
- 59.6订单流数据分析(二)
- 59.7订单流数据分析(三)
- 59.8订单流数据分析(四)
- 59.9订单流数据分析(五)
- 第 60 讲区块链:一场革命
- 60.1比特币(一)
- 60.2比特币(二)
- 60.3比特币(三)
- 60.4以太坊简介及ICO
- 第 61 讲统计物理专题(一)
- 61.1统计物理的开端(一)
- 61.2统计物理的开端(二)
- 61.3抛硬币抛出正态分布(一)
- 61.4抛硬币抛出正态分布(二)
- 61.5再造整个世界(一)
- 61.6再造整个世界(二)
- 61.7温度的本质(一)
- 61.8温度的本质(二)
- 61.9压强
- 61.10证明理想气体方程
- 61.11化学势
- 61.12四大热力学势(一)
- 61.13四大热力学势(二)
- 第 62 讲统计物理专题(二)
- 62.1神奇公式.mp4
- 62.2信息熵(一)
- 62.3信息熵(二)
- 62.4Boltzmann分布
- 62.5配分函数Z
- 第 63 讲复杂网络简介
- 63.1Networks in real worlds
- 63.2BasicConcepts(一)
- 63.3BasicConcepts(二)
- 63.4Models(一)
- 63.5Models(二)
- 63.6Algorithms(一)
- 63.7Algorithms(二)
- 第 64 讲ABM简介及金融市场建模
- 64.1课程介绍
- 64.2系统与系统建模
- 64.3ABM与复杂系统建模(一)
- 64.4ABM与复杂系统建模(二)
- 64.5ABM与复杂系统建模(三)
- 64.6ABM为经济系统建模
- 64.7经典经济学如何给市场建模
- 64.8ABM与复杂系统建模-市场交易
- 64.9ABM与复杂系统建模-技术扩散
- 64.10ABM与复杂系统建模-交通系统(一)
- 64.11ABM与复杂系统建模-交通系统(二)
- 64.12ABM金融市场-SFI股票市场模型(一)
- 64.13ABM金融市场-SFI股票市场模型(二)
- 64.14ABM金融市场-genova市场模型
- 64.15ABM金融市场-Agent及其行为
- 64.16学习模型
- 64.17ABM金融市场-价格形成机制
- 64.18ABM的特点与缺陷
- 第 65 讲用伊辛模型理解复杂系统
- 65.1伊辛模型的背景及格气模型
- 65.2伊辛模型(一)
- 65.3伊辛模型(二)
- 65.4从能量到统计分布及Monte Carlo模拟
- 65.5Ising Model(2D)
- 65.6相变和临界现象
- 65.7Critical Exponents
- 65.8正问题和反问题
- 65.9(空间中的)投票模型
- 65.10(网络中的)投票模型
- 65.11观念动力学
- 65.12集体运动Vicsek模型
- 65.13自旋玻璃
- 65.14Hopfield神经网络
- 65.15限制Boltzmann机
- 65.16深度学习与重正化群(一)
- 65.17深度学习与重正化群(二)
- 65.18总结
- 65.19答疑
- 第 66 讲金融市场的复杂性
- 66.1导论(一)
- 66.2导论(二)
- 66.3导论(三)
- 66.4导论(四)
- 66.5导论(五)
- 66.6Classical Benchmarks(一)
- 66.7Classical Benchmarks(二)
- 66.8Classical Benchmarks(三)
- 66.9Classical Benchmarks(四)
- 66.10Classical Benchmarks(五)
- 66.11Endogenous Risk(一)
- 66.12Endogenous Risk(二)
- 66.13Endogenous Risk(三)
- 66.14Endogenous Risk(四)
- 66.15Endogenous Risk(五)
- 66.16Endogenous Risk(六)
- 66.17Heterogeneous Beliefs(一)
- 66.18Heterogeneous Beliefs(二)
- 66.19总结
- 第 67 讲广泛出现的幂律分布
- 67.1生物界(一)
- 67.2生物界(二)
- 67.3生物界(三)
- 67.4生物界(四)
- 67.5城市、商业(一)
- 67.6城市、商业(二)
- 67.7启示(一)
- 67.8启示(二)
- 67.9总结
- 第 68 讲自然启发算法
- 68.1课程回顾及答疑
- 68.2概括(一)
- 68.3概括(二)
- 68.4模拟退火算法(一)
- 68.5模拟退火算法(二)
- 68.6进化相关的算法(一)
- 68.7进化相关的算法(二)
- 68.8进化相关的算法(三)
- 68.9进化相关的算法(四)
- 68.10粒子群算法(一)
- 68.11粒子群算法(二)
- 68.12粒子群算法(三)
- 68.13遗传算法和PSO的比较
- 68.14更多的类似的算法(一)
- 68.15更多的类似的算法(二)
- 68.16答疑
- 第 69 讲机器学习的方法
- 69.1为什么要讲学习方法
- 69.2阅读论文
- 69.3综述式文章举例(一)
- 69.4综述式文章举例(二)
- 69.5碎片化时间学习及书籍
- 69.6视频学习资源及做思维导图
- 69.7铁哥答疑(一)
- 69.8铁哥答疑(二)
- 69.9输出是最好的学习(一)
- 69.10输出是最好的学习(二)
- 69.11案例(一)
- 69.12案例(二)
- 69.13案例(三)
- 69.14案例(四)
- 69.15案例(五)
- 第 70 讲模型可视化工程管理
- 70.1课程简介
- 70.2虚拟换环境—Anaconda&docker(一)
- 70.3虚拟换环境—Anaconda&docker(二)
- 70.4虚拟换环境—Anaconda&docker(三)
- 70.5虚拟换环境—Anaconda&docker(四)
- 70.6虚拟换环境—Anaconda&docker(五)
- 70.7虚拟换环境—Anaconda&docker(六)
- 70.8虚拟换环境—Anaconda&docker(七)
- 70.9虚拟换环境—Anaconda&docker(八)
- 70.10定制化可视化系统—Jupyter Dashboard(一)
- 70.11定制化可视化系统—Jupyter Dashboard(二)
- 70.12变身前端—seaboarn+Bokeh+Echarts
- 70.13日志管理系统—ELK
- 70.14极速Bi系统—superset
- 70.15Dashboard补充
- 70.16ELK补充
- 70.17Superset补充
- 70.18Superset补充及总结
- 第 71 讲Value Iteration Networks
- 71.1Background&Motivation
- 71.2Value Iteration
- 71.3Grid—world Domain
- 71.4总结及答疑
- 第 72 讲非线性动力学系统(上)
- 72.1非线性动力学系统(一)
- 72.2非线性动力学系统(二)
- 72.3二维系统动力学综述—Poincare引理
- 72.4Bifurcation(一)
- 72.5Bifurcation(二)
- 72.6Bifurcation(三)
- 72.7Bifurcation(四)
- 72.8Bifurcation(五)
- 72.9Bifurcation(六)
- 72.10混沌(一)
- 72.11混沌(二)
- 72.12混沌(三)
- 72.13混沌(四)
- 72.14混沌(五)
- 72.15混沌(六)
- 72.16混沌(七)
- 72.17混沌(八)
- 72.18混沌(九)
- 72.19混沌(十)
- 72.20混沌(十一)
- 第 73 讲非线性动力学系统(下)
- 73.1自然语言处理乱弹(一)
- 73.2自然语言处理乱弹(二)
- 73.3RNN
- 73.4RNN及答疑
- 第 74 讲自然语言处理导入
- 74.1中文分词
- 74.2中文分词、依存文法分析
- 74.3篇章分析、自动摘要、知识提取、文本相似度计算
- 74.4知识库构建、问答系统
- 74.5示范战狼2的豆瓣评论词云(一)
- 74.6示范战狼2的豆瓣评论词云(二)
- 74.7示范战狼2的豆瓣评论词云(三)
- 74.8示范战狼2的豆瓣评论词云(四)
- 74.9示范战狼2的豆瓣评论词云(五)
- 第 75 讲复杂网络上的物理传输过程
- 75.1一些基本概念
- 75.2常用的统计描述物理量
- 75.3四种网络模型
- 75.4一些传播动力学模型(一)
- 75.5一些传播动力学模型(二)
- 75.6一些传播动力学模型(三)
- 75.7一些传播动力学模型(四)
- 75.8一些传播动力学模型(五)
- 75.9一些传播动力学模型(六)
- 75.10一些传播动力学模型(七)
- 75.11一些传播动力学模型(八)
- 75.12仿真模型的建立过程(一)
- 75.13仿真模型的建立过程(二)
- 75.14仿真模型的建立过程(三)
- 75.15仿真模型的建立过程(四)
- 75.16Combining complex networks and data mining
- 第 76 讲RNN及LSTM
- 76.1RNN—序列处理器(一)
- 76.2RNN—序列处理器(二)
- 76.3A simple enough case
- 76.4A dance between fix points
- 76.5Fix point、Train Chaos
- 76.6RNN作为生成模型(动力系统)
- 76.7RNN训练—BPTT(一)
- 76.8RNN训练—BPTT(二)
- 76.9梯度消失与梯度爆炸(一)
- 76.10梯度消失与梯度爆炸(二)
- 76.11Reservoir computing—偷懒方法
- 76.12LSTM
- 76.13LSTM、Use Examples
- 76.14词向量、Deep RNN
- 76.15Encoder Decoder Structure
- 76.16LSTM Text Generation(一)
- 76.17LSTM Text Generation(二)
- 76.18LSTM Text Generation(三)
- 第 77 讲漫谈人工智能创业
- 77.1人工智能对我们生活的影响(一)
- 77.2人工智能对我们生活的影响(二)
- 77.3人工智能对我们生活的影响(三)
- 77.4人工智能对我们生活的影响(四)
- 77.5人工智能对我们生活的影响(五)
- 77.6人工智能对我们生活的影响(六)
- 77.7人工智能创业中的商业思维
- 77.8三个战略管理学商业模型(一)
- 77.9三个战略管理学商业模型(二)
- 77.10三个战略管理学商业模型(三)
- 77.11三个战略管理学商业模型(四)
- 77.12三个战略管理学商业模型(五)
- 77.13三个战略管理学商业模型(六)
- 77.14三个战略管理学商业模型(七)
- 77.15三个战略管理学商业模型(八)
- 77.16三个战略管理学商业模型(九)
- 77.17关于Entrepreneurship
- 第 78 讲深度学习其他主题
- 78.1神经网络的无穷潜力
- 78.2玻尔兹曼机—联想的机器
- 78.3受限玻尔兹曼机
- 78.4对抗学习(一)
- 78.5对抗学习(二)
- 78.6对抗学习(三)
- 78.7对抗学习(四)
- 78.8程序讲解(一)
- 78.9程序讲解(二)
- 78.10程序讲解(三)
- 第 79 讲课程总结
- 79.1开场
- 79.2Attention实例—Spatial Transformer
- 79.3猫狗大战—CNN实战(一)
- 79.4猫狗大战—CNN实战(二)
- 79.5RNN诗人
- 79.6课程复习
- 79.7课程大纲(一)
- 79.8课程大纲(二)
- 79.9课程总结(一)
- 79.10课程总结(二)
欢迎光临 IT视频教程资源网 (http://amachip.top/) | Powered by Discuz! X3.2 |