Mac升级自带python到最新版本有轻功

本文介绍如何在Mac电脑上安装最新版本的Python,并与原有版本共存。通过简单的步骤,包括下载安装包、设置环境变量等,使用户能够在不删除旧版本的情况下使用新版Python。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Mac电脑自带python,但是一般都是python的低版本,如今越来越多的人转向了python3,故而很有必要将其升级,但是mac有些软件是依赖于自带python的,所以不建议删除之前的老版本,而是让老版本和新版本共存。以下为最简单步骤:

1.到python官网下载页面下载最新的python版本(或者自己需要的版本)到本地

2.下载完成后,打开下载的pkg包按照步骤一路点确定,不需要自己修改任何东西,最后安装完成,安装路径默认为 /Library/Frameworks/Python.framework/Versions/3.6

3.安装完成,打开电脑自带终端,如果你的终端运行的shell是bash(默认的),可以直接在终端输入

open ~/.bash_profile

注意:如果你的终端使用不是bash,那么可以查找对应的打开环境变量配置文件的方式,或者将shell切换回bash,只需要命令行输入bash,回车就行啦!

回车后会自动打开一个文本文件,我们可以直接修改里面的内容
打开bash_profile文件
如上图,我们只需要添加对应的alias即可

alias python="/Library/Frameworks/Python.framework/Versions/3.6/bin/python3.6"

因为我下载的最新的python是3.6版本,所以里面的版本号是3.6

4.修改完成后command+s保存这个文件内容,然后重新打开终端或者继续执行

source ~/.bash_profile

5.验证 终端输入python回车,可以看到mac自带python版本已经是我们安装的最新的python版本了

6.如果想回到mac自带的python版本,只需要像上面那样打开~/.bash_profile,然后注释掉最后的alias,这样就行了。

### 回答1: GMM-EM算法的伪代码:// 迭代k次 for (k=0; k<K; k++) { // E步骤 // 计算每个样本属于每个模型的概率 for (i=0; i<N; i++) { for (j=0; j<M; j++) { p[i][j] = pi[j]*Gaussian(x[i],mu[j],sigma[j]); } } // 计算每个样本属于每个模型的期望值 for (i=0; i<N; i++) { for (j=0; j<M; j++) { q[i][j] = p[i][j]/sigma[j]; } } // M步骤 // 更新模型参数 for (j=0; j<M; j++) { pi[j] = pi[j] + q[i][j]; mu[j] = mu[j] + q[i][j]*x[i]; sigma[j] = sigma[j] + q[i][j]*(x[i] - mu[j])*(x[i] - mu[j]); } } ### 回答2: GMM-EM(高斯混合模型期望最大化)算法是一种用于估计高斯混合模型参数的迭代优化算法。下面是GMM-EM算法的伪代码: 输入:观测数据X,高斯分量个数K 输出:高斯混合模型的参数 1. 初始化高斯混合模型参数: - 初始化每个高斯分量的均值向量mu_k,协方差矩阵sigma_k和混合系数pi_k - 使用随机值或者其他预设的初始值进行初始化 2. 迭代优化: - 重复以下步骤,直到收敛: 1. Expectation 步骤: - 计算每个样本属于每个高斯分量的后验概率gamma(z_{nk}),即样本x_n由高斯分量k生成的概率 - 使用当前的参数值计算gamma(z_{nk}),即根据当前参数估计后验概率 2. Maximization 步骤: - 更新均值向量mu_k: - 对于每个高斯分量k,计算新的均值mu_k: - mu_k = (sum_n(gamma(z_{nk})*x_n)) / (sum_n(gamma(z_{nk}))) 其中,sum_n表示对所有样本求和 - 更新协方差矩阵sigma_k: - 对于每个高斯分量k,计算新的协方差矩阵sigma_k: - sigma_k = (sum_n(gamma(z_{nk})*(x_n - mu_k)*(x_n - mu_k).T)) / (sum_n(gamma(z_{nk}))) 其中,sum_n表示对所有样本求和,.T表示矩阵的转置操作 - 更新混合系数pi_k: - 对于每个高斯分量k,计算新的混合系数pi_k: - pi_k = sum_n(gamma(z_{nk})) / N 其中,sum_n表示对所有样本求和,N为样本总数 3. 返回最终的高斯混合模型参数 GMM-EM算法通过交替进行Expectation步骤和Maximization步骤,迭代地优化高斯混合模型的参数,直到收敛到最优参数。
评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值