《流畅的python》阅读笔记 - 第五章:一等函数

在 python 中,函数是一等对象,一等对象满足:

  • 在运行时被创建
  • 能复制给变量活数据结构中的元素
  • 能作为参数传给函数
  • 能作为函数的返回结果(所以在python中,一个函数可以返回另一个函数)

把函数视作对象

一个python的对象:

#定义一个Person类
class Person:
    def hi(self):
        print("Hello!")

person = Person()   #实例化Person类,获得person对象
person.hi()

输出:

Hello!

在这段程序中personz作为一个对象,它就拥有的实例它的类的方法,比如这个hi(),所以它就可以运行print("Hello!"),在python中,函数也是一个对象,它们是function类的实例:

#定义一个函数
def func():
    '''I am func'''
    print("func be called")

print(func.__doc__)

示例中,func 是函数,即它是function类的实例,所以它可以有function类的属性,比如__doc__,它是一般用来解释一个函数的作用的,以上函数的输出:

I am func

所以你可以在 ‘’’ 和 ‘’’ 之间输入任何你认为可以解释这个函数的文本,这样其他程序员或自己也可以通过 help(func)来查看这个函数的用法,注意到它和__repr__()方法的不同吗?我的理解是,__doc__是文档类型的信息,它告诉程序程序员这个函数是什么,怎么使用,有什么作用之类,而__repr__()是调试信息,它打印出某一个具体对象关键的数据。

使用 func.doc 只为了示例了func其实是一个对象,即本小节主题——把函数视为对象,function类的对象.

#定义一个函数
def func():
    '''I am func'''
    print("func be called")

func_cp = func          #函数别名

print(func_cp.__doc__)

你可以使用“=” 来给函数取别名,我能想到的应用就是增加程序的可读性,比如某一个函数在不同的应用中可能有不同的侧重点,可以通过“改名字”的方法来让程序更容易读懂。比如有一个对比字符串是否相等的函数,命名为 isStrEqual,你用来对比密码是否正确,那么chkpass = isStrEqual可能是合适的。

高阶函数

接受一个函数作为参数,或者是把函数结果返回的函数是高阶函数,所以高阶函数满足输入或输出之一是函数。
比如常用的 sorted() 就是一个高阶函数,因为它的参数key用来接收一个函数,sorted()会对应用key到每一个元素中,我的理解是,sorted(list,func)首先使用使用func()来便利list中的每一个元素,然后再对func(list[i])的返回值进行排序。
我们可以传入len()函数,这样返回了每个元素的长度,等于也是对根据元素长度来排序了。

可调用对象

函数是可以被调用的,这是显而易见的规则。在python中,对象也可以被调用,和函数的方法一样,使用obj()这种名字加括号的方式,那么一个对象可能有多种方法,调用对象其实就是使用对象的__call__方法。callable()函数可以用来检测一个对象是否可以被调用。这里,对象可以被调用,函数又可以访问它的类方法,所以函数其实就是对象。

函数内省

python 用户的自定义类即使什么也不写和不继承,仍然有一些基本的属性:

class C :
    def c():
        pass
obj =C()
print(dir(obj))

它的输出:

['__class__', '__delattr__', '__dict__', '__dir__', '__doc__', '__eq__', '__format__', '__ge__', '__getattribute__', '__getstate__', '__gt__', '__hash__', '__init__', '__init_subclass__', '__le__', '__lt__', 
'__module__', '__ne__', '__new__', '__reduce__', '__reduce_ex__', '__repr__', '__setattr__', '__sizeof__', '__str__', '__subclasshook__', '__weakref__', 'c']

虽然只是定义到了c()方法,但是它却排到了最后,前面还有很多属性。
书中示例5-9使用了set(),我的理解是可能函数存在重载,作者想把这些函数去掉再做统计。

充定位参数到仅限关键字参数

  • 定位参数和仅限关键字参数
    我理解的定位参数是根据位置来传参数,仅限关键字参数是必须指定参数的名字才可以接受。

按关键字程序实例:

a = 1
b = 2
c = 3

def add(n1,n2,n3):
    print("n1=%d,n2=%d,n3=%d"%(n1,n2,n3))
    print("n1+n2+n3=%d"%(n1+n2+n3))
    
add(a,b,c)
add(b,a,c)

输出

n1=1,n2=2,n3=3
n1+n2+n3=6
n1=2,n2=1,n3=3
n1+n2+n3=6

可以看到,这种参数是根据函数调用的情况来赋值,即第一个传入的为第一个参数,以此类推。这种也是C语言的传参方法。

按关键字传参数:

a = 1
b = 2
c = 3

def para(n1,n2,n3):
    print("n1=%d,n2=%d,n3=%d"%(n1,n2,n3))
    
para(a,b,c)
para(n3=a,n2=b,n1=c)

输出

n1=1,n2=2,n3=3
n1=3,n2=2,n3=1

可以看到他们的顺序是反着的,虽然都是按a,b,c的顺序,但是由于我们传入参数的时候有指定名字,所以python会严格按我们名字来传值,无视位置,这个在实际开发中可以增加程序的可读性,程序员也不用刻意记住位置,更重要的事,如果一个函数有10个参数,而我们只需要传入其中的2个,那么可以使用关键字,这样程序设计会大大简化。
扩展阅读关于***参数请参考:https://www.cnblogs.com/keye/p/15072861.html

获取关于参数的信息

这里使用到了装饰器在后文介绍,主要是利用@建立一个装饰器,装饰器可以在不直接修改被装饰的原函数的情况下,修改函数的程序。

函数注解

函数的参数可以使用:来注解,python主要把注解的内容保存,不会做检查。

def add(a:"第1个加数",b:"第2个加数")-> "两个数相加的和" :
    print(a+b)
    return a+b

add(2,3)

其中,->“两个数相加的和” 是对返回值的注解,所以对返回值,它的注解是使用->,后面的冒号是任何一个函数都要的,这种主要是用于IDE提示。

<think>好的,我现在需要帮助用户了解Hebb学习率的概念和实现方法,特别是神经网络中的权重更新规则。首先,我得回忆一下Hebb学习规则的基本知识。根据用户提供的引用[1],Hebb学习规则是一种无导师学习,学习信号等于神经元的输出。这意味着权重的调整依赖于前后神经元的激活情况。 接下来,我需要明确用户的问题是关于“Hebb学习率”,但通常Hebb规则更多是关于权重更新,而不是学习率。可能用户混淆了学习率和权重更新规则。所以,在回答时,我需要先澄清Hebb学习规则的基本原理,然后说明其权重更新方法,再讨论如何结合学习率。 用户提供的引用[1]提到,Hebb规则用于调整权矩阵,比如在线性联想器中。引用[2]区分了有导师和无导师学习,Hebb属于后者。因此,在解释时,我需要强调无导师学习的特性,即没有目标输出,仅依靠输入和输出的相关性。 然后,考虑实现方法。通常,Hebb的权重更新公式是Δw = η * x * y,其中η是学习率,x是输入,y是输出。这里的学习率η是用户提到的“学习率”,需要解释它的作用,比如控制更新幅度。可以引用用户提供的引用[4],其中讨论了学习率调整的问题,如RMSProp,但Hebb通常使用固定学习率,不过也可以结合自适应方法。 可能需要给出一个具体的例子,比如如何用Python实现Hebb规则。引用[3]展示了神经网络权重的初始化,可以作为参考。例如,初始化权重后,通过输入和输出的乘积来更新权重,并乘以学习率。 同时,要注意用户可能存在的疑问,比如Hebb规则的局限性,如权重可能无界增长,因此需要标准化或其他机制。引用[5]提到了权重和高斯函数的关系,但这里可能不直接相关,不过可以提到权值的调整影响神经元的响应中心。 最后,生成相关问题,帮助用户深入理解,比如与其他学习规则的对比,优化方法,应用场景等,类似示例中的结构。需要确保问题覆盖Hebb的不同方面,并引导用户进一步探索。 总结回答结构:先介绍概念,解释原理,给出数学公式,说明实现步骤,代码示例,讨论优缺点,最后相关问题。确保引用正确,如引用[1][2]说明无导师学习,引用[3]代码结构,引用[4]学习率调整。</think>### Hebb学习规则解析与权重更新实现 #### 1. Hebb学习规则核心原理 Hebb学习规则由神经心理学家Donald Hebb提出,核心思想是**神经元间的连接强度(权重)与前后神经元激活的相关性成正比**,即“共同激活的神经元会加强连接”[^1]。其数学表达式为: $$ \Delta w_{ij} = \eta \cdot x_i \cdot y_j $$ 其中: - $w_{ij}$:输入神经元$i$到输出神经元$j$的权重 - $x_i$:输入信号(前神经元激活值) - $y_j$:输出信号(后神经元激活值) - $\eta$:学习率(控制权重更新幅度) #### 2. 实现步骤与代码示例 ```python import numpy as np class HebbianNetwork: def __init__(self, input_size, output_size, lr=0.01): self.weights = np.random.randn(input_size, output_size) * 0.1 self.lr = lr # 学习率参数 def train(self, x, y): # Hebb规则更新权重 delta_w = self.lr * np.outer(x, y) # 外积计算权重增量 self.weights += delta_w return self.weights ``` *代码说明*:通过`np.outer()`计算输入向量与输出向量的外积,乘以学习率后更新权重矩阵[^3] #### 3. 学习率的作用与优化 - 基础作用:$\eta$控制权重更新幅度,过大会导致震荡,过小收敛慢 - 自适应优化:可结合RMSProp等算法动态调整学习率[^4] $$ \eta_{eff} = \frac{\eta}{\sqrt{E[g^2]_t + \epsilon}} $$ 其中$E[g^2]_t$为历史梯度平方的移动平均 #### 4. 特点与局限性 **优势**: - 生物学合理性高,符合神经可塑性原理 - 无监督学习特性适合特征提取任务[^2] **缺陷**: - 权重可能无限增长(需引入归一化) - 仅捕获线性相关性 - 对噪声敏感
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值