犹如早期ERP SOA再次被推上“神化”平台

本文探讨了面向服务架构(SOA)在实际应用中所遇到的困惑与挑战,包括SOA项目的成功评估、真实部署情况、部门投资回报及供应商角色等核心问题。

犹如早期ERP SOA再次被推上“神化”平台  
 
  来源:支点网    作者:石江

现在,围绕面向服务的架构仍然有很多未解之谜。很多人---甚至是IT领域的---都说,他们不明白SOA可以做什么,或者如何去部署SOA。SOA已经被软件厂商和分析师们夸大到令人难以置信程度,但是,介绍这种新方法基本含义的珍贵资料却很少。

当没有人真正拥有SOA时,SOA怎么会失败呢?

以下就列出了至今仍然围绕SOA的一些未解之谜:

1.如果SOA真的失败得一塌糊涂,那么,这些“恐怖”的故事在哪里呢?

不少学者和分析家宣称SOA将是一个失败的想法;至今还没有人真正完成SOA的部署工作。一度,大家都迫不及待地宣布SOA半路夭折了,但是,我看到的或者我亲自做的调查显示,大多数公司仍然在规划或考虑他们的第一个面向服务的项目。事实上,这些日子我不断听到的有关SOA面临的在重大挑战是:SOA太成功了,在那些正努力部署SOA的企业中,太多的服务正在被不容分辩地添加进来或创建---或者被要求创建。这也就是为什么有这么多厂商都大肆宣传SOA治理。

2.人们如何知道SOA项目成功或不成功的时间呢?

有关SOA自相矛盾的观点是---那些最倾向于采用SOA的企业恰恰是对SOA需求最低的企业。那些有需要的最低限度。如果这些企业的管理是有远见的,他们也很可能把很多其它应用部署在企业系统中以对SOA提供支持,比如商业智能和分析、数据仓库、客户关系管理,等等。他们正在取得的成功有多少可以直接归因于SOA?成功的定义是什么?成本节省?Web服务提供的一个单一的端到端的过程?

这是SOA首先要面临的一个巨大的挑战之一---收获成功是一个长期的过程。SOA的成功在于企业能够在服务开发时间明显缩减的条件下,跨多个业务单位共享服务;或者,由于SOA不断增加企业底层的基础设施的灵活性,这使得企业重新配置产品或服务并将它们推向市场的时间大大缩减。

但是,在市场上能唯一真正衡量长期成功的标准是企业收入和股票价值的不断增加,除了SOA,还有很多其它因素会对此造成影响。真正的问题在于弄清楚如何衡量SOA对于企业成功的贡献。 SOA本身的“成功”同这是毫无关联的。

3.到底有多少全功能的真正的SOA被部署了?

一些分析机构表示,目前有很多公司(75%或者更多)正在实施SOA项目。还有一些分析机构则表示,目前部署SOA的企业只有4%。他们衡量的标准是什么?根据服务的数量还是这些服务的粒度?根据应用数量或者能够访问具有服务功能的松散耦合组件的过程数量?时,是否只是一堆Web服务,成为国家海洋局?Web服务可能需要更好的“照顾”---治理、注册、管理等等,因而会变得更加SOA化,但是,这个界限是什么?

4.软件供应商是如何给用户灌输了一种观念,使得用户很容易地就使用他们的产品。

这对软件供应商是福还是祸呢?SOA的真正好处在于服务几乎可以根据需求随意调换。用户今天有可能使用这个供应商的SOA组件,没准明天就采用了其它供应商的SOA组件。这也正是软件厂商面临的难题之一,尤其是对于那些大力倡导SOA的厂商。(当然,现在所有供应商都表示他们都与SOA有关,对吧?)

5.谁为SOA买单呢?

哪个部门会花费大量金钱和人力去搭建这样一个会被其它任何人使用的系统呢?其它部门不需要花费任何资源就能利用该系统提供的服务。 具有SOA功能的应用在开始阶段可能会比传统的点到点的接口需要更多的成本,而投资回报率在规模经济效益中将会体现出来。正如马Mark Rix解释的那样,同先期实施的成本较低的点到点的应用相比,长远来看,SOA产生的规模经济效益可以带来更好的投资回报率。然而,风险一般发生在企业认为他们已经部署完了SOA时,但最后却没有投资回报率或者很低,因为他们部署的不是真正的SOA---仍然是点对点的接口。谁会考虑到这些风险呢?或者谁被要求考虑这些风险呢?
 
 

训练数据保存为deep_convnet_params.pkl,UI使用wxPython编写。卷积神经网络(CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,在计算机视觉、语音识别、自然语言处理等多个领域有广泛应用。其核心设计理念源于对生物视觉系统的模拟,主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。 **1. 局部感知与卷积操作** 卷积层是CNN的基本构建块,使用一组可学习的滤波器对输入图像进行扫描。每个滤波器在图像上滑动,以局部区域内的像素值与滤波器权重进行逐元素乘法后求和,生成输出值。这一过程能够捕获图像中的边缘、纹理等局部特征。 **2. 权重共享** 同一滤波器在整个输入图像上保持相同的权重。这显著减少了模型参数数量,增强了泛化能力,并体现了对图像平移不变性的内在假设。 **3. 池化操作** 池化层通常紧随卷积层之后,用于降低数据维度并引入空间不变性。常见方法有最大池化和平均池化,它们可以减少模型对微小位置变化的敏感度,同时保留重要特征。 **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起。随着网络深度增加,每一层逐渐提取更复杂、更抽象的特征,从底层识别边缘、角点,到高层识别整个对象或场景,使得CNN能够从原始像素数据中自动学习到丰富的表示。 **5. 激活函数与正则化** CNN中使用非线性激活函数来引入非线性表达能力。为防止过拟合,常采用正则化技术,如L2正则化和Dropout,以增强模型的泛化性能。 **6. 应用场景** CNN在诸多领域展现出强大应用价值,包括图像分类、目标检测、语义分割、人脸识别、图像生成、医学影像分析以及自然语言处理等任务。 **7. 发展与演变** CNN的概念起源于20世纪80年代,其影响力在硬件加速和大规模数据集出现后真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构推动了CNN技术的快速发展。如今,CNN已成为深度学习图像处理领域的基石,并持续创新。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论 7
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值