人工智能

应用程序分享 | 3分钟极速体验人脸识别

应用程序分享 | 3分钟极速体验人脸识别

1.前言 · 虹软公司提供免费离线人脸识别,对于开发者提供了比较友好、完整的可配置demo。但是如需直接体验功能,还需要花一点时间去完成项目配置等一系列操作,对于初学者、不怎么熟悉整个项目的人来说报各种错误也是常有的。 · 本文是基于虹软人脸识别SDK 3.0Windows(X86),C/C++的demo,封装后输出的一个简单的可直接体验的桌面应用程序,初次接触者可以快速体验人脸识别功能,便于做算... »

中建信息携手SAP,助力企业人力资源管理尽显乘数效应

中建信息携手SAP,助力企业人力资源管理尽显乘数效应

8月27日,以“融合共生,聚力同行”为主题的《2020中国杭州国际人力资源峰会》于杭州城中香格里拉大酒店盛大召开,中建材信息技术股份有限公司(以下简称“中建信息”)携手SAP出席本次会议,并带来了智慧人力资源创新解决方案,与在场的专家共同探讨后疫情时代下,企业人力资源数字化转型之道。 高度发达的产业,是城市发展的支撑;而人才,则是城市第一生产力。 产业·城市·人才 峰会伊始,SAP Success... »

pytorch LSTM情感分类全部代码

先运行main.py进行文本序列化,再train.py模型训练 dataset.py from torch.utils.data import DataLoader,Dataset import torch import os from utils import tokenlize import config class ImdbDataset(Dataset): def __init__(sel... »

基于弹性计算的AI推理

基于弹性计算的AI推理

场景描述本方案适用于使用GPU进行AI在线推理的场景。在推理之前,模型已经训练完成。例如,刷脸支付中,我们在刷脸的时候,就是推理的一个过程。再比如图像分类,目标检测,语音识别,语义分析等返回结果的过程。云栖号 - 上云就看云栖号作者:阿里云云栖号 »

Ubuntu 16.04 NVIDIA 1080 安装 cuda9.0

Ubuntu 16.04 NVIDIA 1080 安装 cuda9.01,安装nvidia驱动2,安装cuda9.03,设置环境变量4,测试 1,安装nvidia驱动 没有输出信息,nouveau已经禁用 lsmod | grep nouveau # ubuntu-drivers devices # apt install -y nvidia-430 # reboot 2,安装cuda9.0 CU... »

Image Name

Task04:机器翻译及相关技术/注意力机制与Seq2seq模型/Transformer

1.机器翻译 机器翻译(MT)是将一个句子 x 从一种语言( 源语言 )转换为另一种语言( 目标语言 )的句子 y 的任务。 机器翻译的大致流程就是根据输入的文本,神经网络开始学习和记忆,这个就是所谓的Encoder编码过程;然后根据自己的记忆,把文本一一翻译出来,这个就是所谓的Decoder解码过程。 机器翻译的基本流程如下: 文本处理,这里我是以eng_fra的文本为例,每行是english[... »

【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

【笔记】吴恩达第四章 多变量线性回归(Linear Regression with Multiple Variables)

四、多变量线性回归4.1 多维特征4.2 多变量梯度下降4.3 梯度下降法实践1-特征缩放4.4 梯度下降法实践2-学习率4.5 特征和多项式回归4.6 正规方程4.1 多维特征当特征数量超过1个时,特征使用n维列向量X,模型参数使用n维列向量4.3 梯度下降法实践1-特征缩放为了使得梯度下降算法能够更快更好的收敛,将所有的特征缩放;一般特征值在[-3,3]或[-1/3,1/3]之间都视作OK。 »

在这里插入图片描述

pytorch学习笔记(一)

文章目录前言tensor1.创建tensor2. 基本属性3. 基本方法4. 运算5. GPU运算自动求导Autograd清空grad阻止autograd跟踪 前言 此为小弟pytorch的学习笔记,希望自己可以坚持下去。(2020/2/17) pytorch官方文档 pytorch中文教程 tensor tensor是pytorch的最基本数据类型,相当于numpy中的ndarray,并且属性和... »

在这里插入图片描述

Task05:卷积神经网络基础+LeNet

卷积神经网络 感受野 LeNet架构 卷积层 互相关运算与卷积运算 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。 填充 步幅 多输入通道和多输出通道 卷积层的简洁实现 X = torch.rand(4, 2, 3, 5) ... »

在这里插入图片描述

初学python记录

to path第二个选项是自定义配置安装,因为我要放在e盘,所以选第二个。现在已经安装成功了,也可以window+r打开cmd测试是否安装成功如果还是不行window+s搜查看高级设置修改环境变量:把path的位置改到自己安装python的位置就可。 »

pytorch学习笔记

pytorch一般框架 import torch N, D_in, H, D_out = 64, 1000, 100, 10 #64个数据,输入1000维,中间层100维,输出10维 # 1. 确定训练数据 x = torch.randn(N, D_in) y = torch.randn(N, D_out) # 2. 定义模型 class TwoLayerNet(torch.nn.Module):... »

tensorflow2.0学习总结(资料篇)

tensorflow简单介绍tensorflow是由google开发,在2019年春发布了2.0版本。与1x版本相比tensorflow2.0版本有了很大的改变,更方便开发人员上手。与facebook的PyTorch相比两者不相上下,但由于tensorflow 1x版本存在许多弊端,许多人更喜欢用PyTorch。但最近几年统计而言用tensorflow的人比较多。对于tensorflow 2.0而... »

lintcode7. 二叉树的序列化和反序列化

设计一个算法,并编写代码来序列化和反序列化二叉树。将树写入一个文件被称为“序列化”,读取文件后重建同样的二叉树被称为“反序列化”。 如何反序列化或序列化二叉树是没有限制的,你只需要确保可以将二叉树序列化为一个字符串,并且可以将字符串反序列化为原来的树结构。 样例 样例 1: 输入:{3,9,20,#,#,15,7} 输出:{3,9,20,#,#,15,7} 解释: 二叉树 {3,9,20,#,#,... »

在这里插入图片描述

动手学深度学习笔记3过拟合、欠拟合

机器学习模型应关注降低泛化误差。过拟合、欠拟合的概念过拟合:模型的训练误差远小于它在测试数据集上的误差欠拟合:无法获得较小的训练误差一般来说,如果训练数据集中样本数过少,过拟合更容易发生。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。模型又是一个集成的思想,即不同的神经网络集成在一起,降低了模型的过拟合。 »

5-RNN-04_词向量

# Embedding Skip-gram import time import numpy as np import tensorflow as tf from utils import utils from urllib.request import urlretrieve from os.path import isfile, isdir from tqdm import tqdm impo... »

win10如何简单安装tensorflow-gpu和cudnn

由于需求,我需要安装一个tensorflow-gpu 1.14的环境。 1,你要先安装anaconda,这个百度使用清华源资源的安装anaconda。 2,对anaconda添加清华源,打开cmd命令,输入以下命令, conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda ... »

在这里插入图片描述

(八)OpenCV人脸识别_06_LBPH算法

基本流程: 输入人脸->人脸数据表示->LBPH特征提取+人脸图像与特征数据库->分类识别->识别人脸 LBPH算法: 图像灰度化->LBP特征提取->ULBP降维处理->分割为多个方格(Cell)->每个方格生成直方图->直方图链接,特征向量集合->与DB中直方图比较(直方图比较)->得到分类结果 Ptr model = LBPH... »

Image Name

Task 04 打卡

1. 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 流程:数据预处理、导入、训练、测试 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence 模... »

在这里插入图片描述

AttnGAN论文问答

F4),后面的生成器2、3、4的做法与此处相同:将生成器的输出与Attn模块做注意力并与本层输出做拼接输入下一层(公式2)当生成器生成图片之后我们需要做的是判别图片的正确性我们将生成器出来的图片通过一次卷积得到一张真实的图片,在此之前的图片不是真实的图片(公式3)最后我们将真实的图片输入值判别器D(公式4)以上是AttnGAN的整个模型具体细节问题四:生成器的具体细节是怎么样的? »

在这里插入图片描述

(三)OpenCV图像处理_02_直线检测

直接用霍夫直线检测,效果差; 通过图像形态学操作来寻找直线,霍夫获取位置信息与显示。 #include #include using namespace std; using namespace cv; Mat src,temp_ROI,dst; int threshold_value = 128; void DetectLine(int,void*);//Hough直线检测函数 void Mor... »

在这里插入图片描述

动手学深度学习Task04

Task04 1.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 import os os.listdir('/home/kesci/input/') out:[‘fraeng6506’, ‘d2l9528’, ‘d2l6239’... »

L21 Momentum RMSProp等优化方法

L21 Momentum RMSProp等优化方法

airfoil4755 下载 链接:https://pan.baidu.com/s/1YEtNjJ0_G9eeH6A6vHXhnA 提取码:dwjq 11.6 Momentum 在 Section 11.4 中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,... »

在这里插入图片描述

动手深度学习 笔记5

机器学习模型应关注降低泛化误差。一阶多项式函数拟合又叫线性函数拟合2.训练数据集大小一般来说,如果训练数据集中样本数过少,特别是比模型参数数量更少时,过拟合更容易发生。因此,在计算资源允许的范围之内,我们通常希望训练数据集大一些,特别是在模型复杂度较高时,例如层数较多的深度学习模型。 »

【C语言零基础教程】- 预处理指令1 – 宏定义!

【C语言零基础教程】- 预处理指令1 – 宏定义!

预处理指令简介 1.C语言在对源程序进行编译之前,会先对一些特殊的预处理指令作解释(比如之前使用的#include文件包含指令),产生一个新的源程序(这个过程称为编译预处理),之后再进行通常的编译 2.为了区分预处理指令和一般的C语句,所有预处理指令都以符号”#”开头,并且结尾不用分号 3.预处理指令可以出现在程序的任何位置,它的作用范围是从它出现的位置到文件尾。习惯上我们... »

在这里插入图片描述

(五)OpenCV图像分割_04_GMM(高斯混合模型)图像分割_机器学习

#include #include using namespace std; using namespace cv; using namespace cv::ml; int main(int argc, char** argv) { Mat src; src = imread("../path.jpg"); if (src.empty()) { cout << "could ... »

Page 1 of 155123»