“人造太阳”计划

c++迭代器失效的情况汇总

所以不能使用erase的方式,还好erase方法可以返回下一个有效的iterator。= cont.end();)迭代器失效:void vectorTest() for (iter = container.begin(); iter ! »

python next()和iter()函数原理解析

>>> list_ = [1,2,3,4,5]>>> it = iter>>> next>>> next>>> next>>> next>>> next>>> next'-1' ... »

Python中的迭代器与迭代对象

文章目录可迭代对象①可迭代对象定义②查看对象内部方法③总结迭代器①迭代器的定义②如何判断该对象是否是迭代器③可迭代对象如何转化成迭代器④迭代器取值⑤while模拟for的内部循环机制⑥小结可迭代对象与迭代器对比 可迭代对象 ①可迭代对象定义 对于迭代器来说,我们更熟悉的应该是可迭代对象,之前无论是源码还是讲课中或多或少我们提到过可迭代对象这个词。之前为了便于大家理解可迭代对象,可能解释的不是很正确... »

Python系列(三):关于迭代器和生成器,你该了解这些

一.前言 说起迭代器和生成器,可以说是python语言的精髓之一,生成器可能有人没用过,但是迭代器绝对是大家经常使用的(可能你并不了解自己正在使用迭代器),最常见的迭代器使用场景就是我们用for循环来遍历各种列表,字符串,元组等各种对象了。 mlist = [1,3,5,7,9,2,4,6,8,10] for item in mlist: print(item) string = 'hello w... »

在这里插入图片描述

Python所有重要知识点(教你把python3拿捏得死死的)

python的特性 Python是动态类型的,这意味着你不需要在声明变量时指定类型。你可以先定义x=111,然后 x=”I’m a string”,一点问题也不会有。 Python是面向对象语言,所有允许定义类并且可以继承和组合。Python没有访问访问标识如在C++中的public, private, 这就非常信任程序员的素质,相信每个程序员都是“成人”了~ 在Python中,函数是一等公民。这... »

在这里插入图片描述

机器学习实战:逻辑回归+梯度下降

使用梯度下降的方法进行逻辑回归实战: 问题说明: 这里将建立一个逻辑回归模型来预测一个学生是否被大学录取。 假设你是一个大学的管理员,你想根据两次考试的结果来决定每个申请人的录取机会,你有以前的申请人的历史数据。可以用历史数据作为逻辑回归的训练集。对于每一个样本,有两次考试的申请人的成绩和录取决定。建立一个分类模型,根据考试成绩估计入学概率。 数据链接: 链接:https://pan.baidu.... »

可迭代对象,生成器,迭代器

可迭代对象 str,tuple,dict,list,set,bytes都为可迭代对象 range的结果是一个 range 对象,是一个可迭代对象 可迭代对象的本质: 在迭代一个可迭代对象的时候,实际上就是先获取该对象提供的一个迭代器,然后通过这个迭代器来依次获取对象中的每一个数据。 那么也就是说,一个具备了_ _iter _ _方法的对象,就是一个可迭代对象。 迭代器 python中只要实现了__... »

在这里插入图片描述

经典卷积神经网络模型—AlexNet,VGG,GoogLeNet

AlexNet 特征 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。 将sigmoid激活函数改成了更加简单的ReLU激活函数。 用Dropout来控制全连接层的模型复杂度。 引入数据增强,如翻转、裁剪和颜色变化,从而进一步扩大数据集来缓解过拟合 第一个卷积层 输入的图片大小为:2242243(或者是2272273) 第一个卷积层为:111196即尺寸为1111,有96个卷积核... »

pytorch 学习笔记 part9 LeNet 模型

通过Sequential类来实现LeNet模型 #import import sys sys.path.append("/home/kesci/input") import d2lzh1981 as d2l import torch import torch.nn as nn import torch.optim as optim import time #net class Flatten(to... »

在这里插入图片描述

5.5 卷积神经网络(LeNet)

在“多层感知机的从零开始实现”一节里我们构造了一个含单隐藏层的多层感知机模型来对Fashion-MNIST数据集中的图像进行分类。每张图像高和宽均是28像素。我们将图像中的像素逐行展开,得到长度为784的向量,并输入进全连接层中。然而,这种分类方法有一定的局限性。 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大... »

在这里插入图片描述

深度学习基础(Section two)

本文章主要内容是线性回归的应用——kaggle房价预测,卷积神经网络. 一、线性回归实战 该比赛的网页地址是 https://www.kaggle.com/c/house-prices-advanced-regression-techniques. 项目步骤分别为:读取+预处理数据,定义神经网络,定义损失函数以及结果计算函数(按题目要求),定义训练网络函数,k折交叉验证,最后训练全部数据进行结果预... »

在这里插入图片描述

进阶网络神经

#目前GPU算力资源预计17日上线,在此之前本代码只能使用CPU运行。 #考虑到本代码中的模型过大,CPU训练较慢, #我们还将代码上传了一份到 https://www.kaggle.com/boyuai/boyu-d2l-modernconvolutionalnetwork #如希望提前使用gpu运行请至kaggle。 import time import torch from torch im... »

VGG19

VGG 论文总结

例如,ILSVRC-2013表现最佳的论文使用了更小的感受野窗口尺寸和第一卷积层更小的步长。第5节总结了论文。最后,附录C包含了主要的论文修订列表。 »

【人工智能学习】【十四】Normalization

Normalization 首先来看批量归一化(Batch Normalization)1,来源是2015年的一篇论文,这个方法现在被大量引用,可以提高神经网络训练速度,泛化能力等。 神经网络对数据集的训练,其实是在学习数据集的分布,一旦数据分布不同(Internal Covariate Shift),会带来训练速度降低(训练集分布改变)、预测能力下降(测试集分布改变)的问题,神经网络对数据分布敏... »

在这里插入图片描述

动手学深度学习Pytorch Task05

本节课内容,卷积神经网络基础、LeNet、卷积神经网络进阶 一、卷积神经网络基础 二维互相关运算:二维互相关运算的输入是一个二维输入数组和一个二维核数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。下图展示了一个互相关运算的例子,阴影部分分别是... »

Image Name

批量归一化 && 残差网络

基于此前对于CNN的介绍 Fundamentals of Convolutional Neural Networks LeNet && ModernCNN 就深层次 CNN 的结构进一步探讨归一化和残差网络。 批量归一化(BatchNormalization) 让网络训练归一化变得更加容易,本质是一种对数据的标准化处理 分类 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集... »

卷积神经网络pytorch简易代码实现

二维互相关运算 mport torch import torch.nn as nn def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i, j] = (X[i: ... »

在这里插入图片描述

Pytorch实现LeNet

文章目录Convolutional Neural NetworksLeNet 模型介绍LeNet 网络搭建运用LeNet进行图像识别-fashion-mnist数据集 Convolutional Neural Networks 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层... »

深度学习之LENET网络、AlexNet网络、VGG网络、NiN网络中的网络、GoogLeNet网络

深度学习之LENET网络、AlexNet网络、VGG网络、NiN网络中的网络、GoogLeNet网络

1、LeNet 模型 LeNet分为卷积层块和全连接层块两个部分。下面我们分别介绍这两个模块。 (1)卷积层块里的基本单位是卷积层后接平均池化层:卷积层用来识别图像里的空间模式,如线条和物体局部,之后的平均池化层则用来降低卷积层对位置的敏感性。 (2)卷积层块由两个这样的基本单位重复堆叠构成。在卷积层块中,每个卷积层都使用5×55×5 的窗口,并在输出上使用sigmoid激活函数。第一个卷积层输出... »

动手学深度学习pytorch版本

pytorch之GRU模型 疫情期间,宅家无聊,参加了由和鲸社区、Datawhale、伯禹人工智能学院等单位联合发起的免费公益学习活动,主要利用pytorch进行深度学习,时间比较紧凑,没怎么学懂,得多花一点时间,代码都是向大佬借鉴的,错误之处,恳请指正,我就是个搬运工,仅做学习打卡使用,不喜勿喷哈哈哈哈。 import numpy as np import torch from torch im... »

在这里插入图片描述

伯禹 动手学深度学习 打卡09 之批量归一化和残差网络

批量归一化(BatchNormalization) 对输入的标准化(浅层模型) 处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。 标准化处理输入数据使各个特征的分布相近 批量归一化(深度模型) 利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。 1.对全连接层做批量归一化 位置:全连接层中的仿射变换和激活函数之间。 全连接: 2.... »

在这里插入图片描述

过拟合、欠拟合 & 梯度消失、梯度爆炸 & 循环神经网络进阶

过拟合、欠拟合 过拟合、欠拟合的概念 权重衰减 丢弃法 训练误差与泛化误差 训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 模型选择 min⁡θ1N∑i=1NL(yi,fθ(xi))+λ∣∣θ∣∣2\min_{\... »

在这里插入图片描述

动手学深度学习之lenet

参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/lesson/cuwTT4MTwpHpKfaKKDcYQt 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前... »

在这里插入图片描述

tensorflow学习笔记 + 程序 (五)CNN与MNIST数据集

下文中所用的部分数据集链接(百度网盘): 链接:https://pan.baidu.com/s/1_Y0rWLj9wuJefzT9JME5Ug 提取码:6fho 1 基础CNN用于MNIST 1.1 部分函数介绍 1.1.1 tf.nn.conv2d tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=... »

在这里插入图片描述

《动手学深度学习》第二次打卡

1.过拟合欠拟合及其解决方案 1.1概念 欠拟合(underfitting):模型无法得到较低的训练误差; 过拟合(overfitting):模型的误差远小于它在测试数据上的误差。 给定训练集,模型复杂度和误差之间的关系为: 1.2多项式函数拟合实验 %matplotlib inline import torch import numpy as np import sys sys.path.app... »

Page 1 of 512345