-
tensorflow随笔-条件循环控制(7)
选择理由,精准屏蔽
tf.case tf.case( ? ? pred_fn_pairs, ? ? default=None, ? ? exclusive=False, ? ? strict=False, ? ? name='case' ) 创建case操作 pred_fn_pairs参数是大小为N的字典或pairs的列表。每对包含一个布尔标量tensor和一个python可调用函数项,当条件为True将返回对... -
TensorFlow 卷积神经网络之使用训练好的模型识别猫狗图片
选择理由,精准屏蔽
此系列的上一篇是 训练猫狗图片识别模型TensorFlow 卷积神经网络之猫狗识别,这片文章是介绍,训练后的模型应该如何使用。 本文逻辑: 1. 我从网上下载了十几张猫和狗的图片,用于检验我们训练好的模型。 2. 处理我们下载的图片 3. 加载模型 4. 将图片输入模型进行检验 代码如下: #coding=utf-8 import tensorflow as tf from -
SSD算法代码介绍(二):训练算法整体架构
选择理由,精准屏蔽
上一篇:MXNet框架的SSD算法代码介绍(一):train.py 主要介绍了训练模型的一些参数配置信息,可以看出在训练脚本train.py中主要是调用train_net.py脚本中的train_net函数进行训练的,因此这一篇博客介绍train_net.py脚本的内容。 train_net.py这个脚本一共包含convert_pretrained,get_lr_scheduler,train... -
文本分类---逻辑回归(1)
选择理由,精准屏蔽
基于sklearn的文本分类—逻辑回归(1) 本文是文本分类的第一篇,记录使用逻辑回归进行文本分类任务,数据集下载地址://thuctc.thunlp.org/ 文本分类的主要内容如下: - 1.基于逻辑回归的文本分类 - 2.基于朴素贝叶斯的文本分类 - 3.基于SVM的文本分类 - 4.基于卷积神经网络词级别的文本分 -
上一节讲述了真实数据(csv表格数据)的查看以及如何正确的分开训练测试集。今天接着往下进行实战操作,会用到之前的数据和代码,如果有问题请查看上一节。 三、开始实战(处理CSV表格数据) 5、查看训练集的特征图像信息以及特征之间的相关性??上一节粗略地查看了数据的统计信息,接下来需要从训练样本中得到更多的信息,从而对数据进行一些处理。查看训练集的特征图像信息??为了防止误操作在查看
-
visdom的安装及在pytorch下损失函数的可视化应用
选择理由,精准屏蔽
pytorch下可采用visidom作为可视化工具1. 安装pip install visdom conda install visdom启动?python -m visdom.server在浏览器输入://localhost:8097/,即可启动Note:(1)有时安装了之后不能用,比如网页什么都没有,可尝试替换?Anaconda3\Lib\site-packages\visdom下的... -
知识图谱:社区、公众号、网站(整理)
选择理由,精准屏蔽
刚开始接触知识图谱,听过肖仰华老师的知识图谱课程,也开始思考什么样的问题需要用知识图谱去解决,以及知识图谱的语义信息是如何体现。 学习知识,应该有种开放的心态,但之前苦于没有找到获取知识图谱方面信息的途径,所以一直在百度搜索"知识图谱",但获得信息很少。今天得到Mr.Lemon的启发,可以逛知乎,逛微博,逛社区,关注公众号等,今晚搜集完这些信息后,决定整理出来,给打算入门知识图谱的朋友。 1.... -
基础 | batchnorm原理及代码详解
选择理由,精准屏蔽
Batchnorm原理详解 前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。 本文旨在用通俗易懂的语言,对深度学习的常用算法–batchnorm的原理及其代码实现做一个详细的解读。本文主要包括以下几个部分。 Batchnorm主要解决的问题 Batchnorm原理解读 Batchnorm的优点 B -
python下进行lda主题挖掘(一)——预处理(英文)
选择理由,精准屏蔽
到2018年3月7日为止,本系列三篇文章已写完,可能后续有新的内容的话会继续更新?;队亩敛⒔涣?。 python下进行lda主题挖掘(一)——预处理(英文) python下进行lda主题挖掘(二)——利用gensim训练LDA模型 python下进行lda主题挖掘(三)——计算困惑度perplexity 写在前面 本人打算将LDA这部分的内容写成一个系列,不涉及算法思想,... -
《机器学习》周志华-CH1 绪论
选择理由,精准屏蔽
1.1 引言 机器学习(machine learning)的定义:它致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。 在计算机系统中,“经验”通常以“数据”的形式存在。 ML研究的主要内容:在计算机上、从数据中产生“模型model”的算法。即是:如何通过数据集产生模型?因此机器学习本质上,研究的是算法;而这种算法的作用是,从数据集中产生模型;而模型的作用是,当面对新的数据时,模型 -
深度学习实战(一)快速理解实现风格迁移
选择理由,精准屏蔽
前言 Gatys大神之前发表了一篇利用风格迁移进行作画的文章,让普通的照片具有名人的画风,效果如下: 让一篇普通的图片有了梵高的风格,厉害了。 文章链接:A Neural Algorithm of Artistic Style 其实我们也可以利用风格迁移实现自己的风格,比如本文实现的国画风格。难点在于很多国画背景与内容色差并没西方画作那么明显,有的仅用淡墨,黑白两色就可以完成 -
手撸决策树算法,python编程实现
选择理由,精准屏蔽
1.信息增益 ? 1.1 信息熵 ? ? ? ? 在信息论中,信息熵度量样本集合纯度是最常用的一种指标,信息熵用来描述信源的不确定度。例如: A=太阳从东方升起 B=太阳从西方升起 ? ? ? 对于句子A,确定度很高,基本为必然事件。其信息熵较低,所含的信息量很小。 ? ? ? 对于句子B,不确定性特别高,基本不可能发生,所以其信息熵很高,所含信息量很大。 ? ? ? ... -
GBDT原理与Sklearn源码分析-回归篇
选择理由,精准屏蔽
摘要: 本文将非常详细的介绍GBDT(Gradient Boosting Decision Tree)的原理以及Sklearn里面具体是如何实现一个GBDT的。本次内容将分为两篇文章,一篇是GBDT用于回归,一篇是GBDT用于分类任务。虽然两者其实本质是一样的,只是loss function不同,但是分成两篇可以帮助更好的对比理解。 注意:本文前半部分是GBDT原理的一个概述,后半步是skle... -
GBDT原理与Sklearn源码分析-分类篇
选择理由,精准屏蔽
摘要: 继上一篇文章,介绍完回归任务下的GBDT后,这篇文章将介绍在分类任务下的GBDT,大家将可以看到,对于回归和分类,其实GBDT过程简直就是一模一样的。如果说最大的不同的话,那就是在于由于loss function不同而引起的初始化不同、叶子节点取值不同。 正文: GB的一些基本原理都已经在上文中介绍了,下面直接进入正题。 下面是分类任务的GBDT算法过程,其中选用的loss f... -
无人驾驶汽车系统入门(十二)——卷积神经网络入门,基于深度学习的车辆实时检测 上篇文章我们讲到能否尽可能利用上图像的二维特征来设计神经网络,以此来进一步提高识别的精度。在这篇博客中,我们学习一类专门用来处理具有网格结构的数据的神经网络——卷积网络(Convolutional Network)。此外,我们使用keras来实现一种深层卷积网络——YOLO,使用YOLO对车辆进行实时检测。
-
因为要做深度学习,所以自己就搭了一个GPU版的工作平台,因为没人指导,全部从0开始,之前就有人说装caffe一开始最好装CPU版,因为一开始上手GPU,安装过程可能就会让你直接放弃。 诚不我欺,前后用了两三天,重装了几次系统(强迫症使然),终于搞好了,特地分享。 我用的python3,所以基于python2的可以跳过这篇文章 A.先来安装最难的Caffe 安装需要的软件清单如下: 1...
-
pytorch进行CIFAR-10分类(1)CIFAR-10数据加载和处理 1、写在前面的话 这一篇博文的内容主要来自于pytorch的官方tutorial,然后根据自己的理解把cifar10这个示例讲一遍,权当自己做笔记。因为这个cifar10是官方example,所以适合我们拿来先练手,至少能保证代码的正确性。 之所以第一篇pytorch的博文(其实之前还写了篇如何安装pytorch
-
决策树(decision tree)(二)——剪枝
选择理由,精准屏蔽
预剪枝就是在构造决策树的过程中,先对每个结点在划分前进行估计,若果当前结点的划分不能带来决策树模型泛华性能的提升,则不对当前结点进行划分并且将当前结点标记为叶结点。 -
* 版权声明:博客文章都是作者辛苦整理的,转载请注明出处,谢谢! * //blog.csdn.net/m0_37306360/article/details/79318644 简介 在这个项目中,我们将使用PyTorch框架实现一个神经网络,这个网络实现法文翻译成英文。这个项目是Sean Robertson写的稍微复杂一点的教程,但对学习PyTorch还是有很大的帮助。 本文通过序...
-
Tensorflow学习-基本函数
选择理由,精准屏蔽
tf.truncated_normal函数? 功能:从截断的正态分布中输出随机值。 tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) shape:生成张量的维度 mean:均值 stddev:标准差 dtype: 输出的类型。 seed: 一...
