# -*- coding: utf-8 -*-
 """
 Created on Sun Mar  4 09:21:41 2018

 @author: markli
 """
 import numpy as np;

 def ReLU(x):
     return max(0,x);

 def logistic(x):
     return 1/(1 + np.exp(-x));

 def logistic_derivative(x):
     return logistic(x)*(1-logistic(x));

 class ConvolutionLayer:
     """
     卷积神经网络中的卷积层
     """
     def __init__(self,shape,padding,filters,stride):
         """
         shape 卷积层形状,元组 (行,列,通道数)
         padding 填充零个数的大小
         filters 过滤器的形状,元组 (行,列,通道数,个数)
         stride 步长
         """
         self.shape = shape;
         self.padding = padding;
         self.stride = stride;
         self.fileters = filters[:3];
         self.fileternum = filters[3];
         self.weights = [];
         for i in range(filters[3]):
             self.weights.append(np.random.randn(shape[2],filters[0],filters[1]));
         self.baises = list(np.random.randn(filters[3]));

         self.convlutionsize = (int((shape[0] + 2*padding - filters[0])/stride + 1),int((shape[1] + 2*padding - filters[1])/stride + 1));
         self.conv = np.ones((filters[3],self.convlutionsize[0],self.convlutionsize[1]));

     def Convolute(self,Data):
         """
         Data 三维数组,若只有两维则通道数设为1.
         """
         if(self.padding != 0):
             for c in range(self.shape[2]):
                 ones = np.zeros((self.shape[0]+2*self.padding,self.shape[1]+2*self.padding));
                 ones[self.padding:self.padding+self.shape[0],self.padding:self.padding+self.shape[1]] = Data[c];
                 Data[c] = ones;
         c,m,n = Data.shape;

         #遍历每一个过滤器
         for f in range(self.fileternum):
             t_conv = self.conv[f]; #取出第f个过滤器卷积后的临时容器
             w = self.weights[f]; #取出第f个过滤器的权值集合
             b = self.baises[f]; #取出第f个过滤器的偏倚
             #卷积运算,所有通道一起遍历
             row = 0;
             for i in range(self.convlutionsize[0]):
                 col = 0;
                 for j in range(self.convlutionsize[1]):
                     data = Data[:,row:row+self.fileters[0],col:col+self.fileters[1]]; #取出卷积运算的数据立方体
                     s = 0; #存放卷积立方体的乘积的和
                     #对取出的临时数据的每个通道进行卷积运算
                     for t_c in range(c):
                         t_w = w[t_c];
                         t_data = data[t_c];
                         temp = sum(np.multiply(t_w,t_data));
                         s = temp + s;
                     t_conv[i,j] = ReLU(s+b);
                     #向右移动过滤器
                     col = col + self.stride;
                 #向下移动过滤器
                 row = row + self.stride;
             #更新卷积结果容器
             self.conv[f] = t_conv;

 class PoolLayer:
     """池化层"""
     def __init__(self,shape,poolsize,stride,classic="max"):
         """
         shape 池化目标的形状, 元组(行,列,通道数)
         poolsize 池化矩阵的形状,元组 (行,列)
         stride 步长 一般情况下池化的步长等于池化大小
         classic 池化方式 max,average
         """
         self.shape = shape;
         self.stride = stride;
         self.poolsize = poolsize;
         self.classic = classic;
         #生成池化结果矩阵形状
         self.pool = np.ones((shape[2],(shape[0]-poolsize[0])/stride + 1,(shape[1]-poolsize[1])/stride + 1));
         #生成过度池化矩阵形状
         self.c_poolsize = ((shape[0]-poolsize[0])/stride + 1,(shape[1]-poolsize[1])/stride + 1);

     def Pool(self,Data):
         """
         Data 三维数组,若只有两维则通道数设为1.
         """
         c,m,n = Data.shape;

         #在每个通道上进行池化操作
         for k in range(c):
             p_temp = Data[k];
             row = 0;
             for i in range(self.c_poolsize[0]):
                 col = 0;
                 for j in range(self.c_poolsize[1]):
                     temp = p_temp[row:row+self.poolsize[0],col:col+self.poolsize[1]];
                     if(self.classic == "average"):
                         self.pool[k][i][j] = np.sum(temp) / (self.poolsize[0] * self.poolsize[1]);
                     if(self.classic == "max"):
                         self.pool[k][i][j] = np.max(temp);
                     else:
                         print("the classic does not exist");

                     col = col + self.stride;

                 row = row + self.stride;

 class FullConnectLayer:
     """全连接层"""
     def __init__(self,n_in,n_out,action_fun=logistic,action_fun_der=logistic_derivative,flag):
         """
         n_in 输入层的单元数
         n_out 输出单元个数 及紧邻下一层的单元数
         action_fun 激活函数
         action_fun_der 激活函数的导函数
         flag 初始化权值和偏倚的标记 normal,larger,smaller
         """
         self.action_fun = action_fun;
         self.action_fun_der = action_fun_der;
         self.n_in = n_in;
         self.n_out = n_out;
         init_weight_biase(flag);

     def init_weight_biase(self,init_flag):
         if(init_flag == "noraml"):
             self.weight = np.random.randn(self.n_out,self.n_in);#weight 取值服从N(0,1) 分布
             self.biase = np.random.randn(self.n_out,1);
         elif(init_flag == "larger"):
             self.weight = 2*np.random.randn(self.n_out,self.n_in)-1; #weight 取值范围(-1,1)
             self.biases = 2*np.random.randn(self.n_out,1)-1 ; #b 取值范围(-1,1)
         elif(init_flag == "smaller"):
             self.weight = np.random.randn(self.n_out,self.n_in)/np.sqrt(self.n_out) ; #weight 取值服从N(0,1/x) 分布
             self.biase = np.random.randn(self.n_out,1);

     def Forward(self,inpt):
         """全连接层的前馈传播"""
         self.inpt = np.dot(self.weight,inpt) + self.biase;
         self.outpt = self.action_fun(self.inpt);

 """Softmax Layer"""

后向传播的实现还是没有头绪,三层之间如何衔接不知道该怎么设计。本人能力水平有限,欢迎交流。本人微信号 markli52024

Python3 卷积神经网络卷积层,池化层,全连接层前馈实现的更多相关文章

  1. tensorflow 1.0 学习:池化层(pooling)和全连接层(dense)

    池化层定义在 tensorflow/python/layers/pooling.py. 有最大值池化和均值池化. 1.tf.layers.max_pooling2d max_pooling2d( in ...

  2. 深度学习原理与框架-Tensorflow卷积神经网络-卷积神经网络mnist分类 1.tf.nn.conv2d(卷积操作) 2.tf.nn.max_pool(最大池化操作) 3.tf.nn.dropout(执行dropout操作) 4.tf.nn.softmax_cross_entropy_with_logits(交叉熵损失) 5.tf.truncated_normal(两个标准差内的正态分布)

    1. tf.nn.conv2d(x, w, strides=[1, 1, 1, 1], padding='SAME')  # 对数据进行卷积操作 参数说明:x表示输入数据,w表示卷积核, stride ...

  3. CNN学习笔记:全连接层

    CNN学习笔记:全连接层 全连接层 全连接层在整个网络卷积神经网络中起到“分类器”的作用.如果说卷积层.池化层和激活函数等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的特征表示映射到样 ...

  4. mnist全连接层网络权值可视化

    一.数据准备 网络结构:lenet_lr.prototxt 训练好的模型:lenet_lr_iter_10000.caffemodel 下载地址:链接:https://pan.baidu.com/s/ ...

  5. 【深度学习篇】--神经网络中的池化层和CNN架构模型

    一.前述 本文讲述池化层和经典神经网络中的架构模型. 二.池化Pooling 1.目标 降采样subsample,shrink(浓缩),减少计算负荷,减少内存使用,参数数量减少(也可防止过拟合)减少输 ...

  6. 神经网络中的池化层(pooling)

    在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合).为什么可以通过降低维度呢? 因为图像具有一种“静态性”的属性,这 ...

  7. caffe中全卷积层和全连接层训练参数如何确定

    今天来仔细讲一下卷基层和全连接层训练参数个数如何确定的问题.我们以Mnist为例,首先贴出网络配置文件: name: "LeNet" layer { name: "mni ...

  8. 全连接层(FC)与全局平均池化层(GAP)

    在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量,全连接层的每一个节点都与上一层每个节点连接,是把前一层的输出特征都综合起来,所以该层的权值参数是 ...

  9. resnet18全连接层改成卷积层

    想要尝试一下将resnet18最后一层的全连接层改成卷积层看会不会对网络效果和网络大小有什么影响 1.首先先对train.py中的更改是: train.py代码可见:pytorch实现性别检测 # m ...

随机推荐

  1. Sass用法指南

    写在前面的话:随着CSS文件越来越大,内容越来越复杂,对其进行很好的维护将变的很困难.这时CSS预处理器就能够帮上大忙了,它们往往拥有变量.嵌套.继承等许多CSS不具备的特性.有很多CSS预处理器,这 ...

  2. Lua学习----Lua的表达式

    前言 Lua的运算符和其他语言基本类似.但也有一点点区别 1.算术运算符 Lua的算术运算符加入了指数运算符^ print(2 ^ 10) -->打印 1024. 求2的10次方 2.关系运算符 ...

  3. 调整vbox虚拟机下的linux全屏模式及分辨率

    >>Step1 在VirtualBox菜单栏中选择[设备]->[安装增强功能] >>Step2 点击右上角的[齿轮]图标,然后选择[Log Out],重新登录即可 lin ...

  4. JS只弹出一个居中弹出窗口

    var newWindow;//定义一个窗口,有利于窗口间的通讯function makeNewWindow(url) {   if (!newWindow || newWindow.closed) ...

  5. JS基础回顾,小练习(去除字符串空格)

    方法1: var str = ' h t m l 5 '; function trim(str) { var reg = /(\s+)/g; var m,s = str; while(m = reg. ...

  6. 后缀数组---Milk Patterns

    POJ  3261 Description Farmer John has noticed that the quality of milk given by his cows varies from ...

  7. 1、Flat UI Getting started(文档翻译)

    下载链接:http://www.bootcss.com/p/flat-ui/ 一.什么是Flat UI? Flat UI 是一种漂亮的Boostrap主题.我们重新设计了它的很多组件,使得其看起来扁平 ...

  8. JQuery基础教程:事件(下)

     事件传播     为了说明不可单击的页面元素处理单击事件的能力,例如样式转换器中包含按钮的div元素或者兄弟元素h3,我们来实现一个鼠标指针进入元素和离开元素时的效果,首先需要添加一种翻转状态,表明 ...

  9. javascript代码复用--继承

    由于javascript没有类的概念,因此无法通过接口继承,只能通过实现继承.实现继承是继承实际的方法,javascript中主要是依靠原型链要实现. 原型链继承 原型链继承是基本的继承模式,其本质是 ...

  10. c语音中打印参数调用层级即call stack, call trace

    http://stackoverflow.com/questions/105659/how-can-one-grab-a-stack-trace-in-c There's backtrace(), a ...