日常AI/ML软件工程中可访问性的社会技术轮廓
在AI/ML软件工程领域,有两个关键主题值得关注:对模型进行微调以及向他人解释模型。下面将详细阐述这两个方面。
对模型进行微调
ML开发是一个不断对模型进行微调、测试、调试和重新运行的迭代过程,充满了实验性且信息丰富。通过这些实践,软件工程(SE)团队致力于让模型更易于理解,构建足够的连贯性以推动开发工作的进行。
开发者在项目开始时可能对各种AI/ML算法和建模技术有宏观的了解,如人工神经网络(ANNs)、生成对抗网络(GANs)或决策树等。但在具体项目中,他们需要深入理解这些算法如何作用于和转换手头的特定数据集。预期在日常实践中起着引导作用,当实际情况与预期不符时,就会激发开发者的兴趣并促使他们去寻求更多信息。开发者Ethan表示:“当我们感到惊讶时,就需要某种解释。如果看到或经历的是预期中的情况,我们就会继续进行而不会过多留意。”
当模型输出与预期行为不一致时,SE团队会进行调试,运用各种技术来梳理模型的行为逻辑。开发者Siddhartha指出:“可解释性相关的东西,即XAI,主要是用于调试。它给出的解释非常专业,比如模型内部工作的热力图等。这对开发者有用,但我看不出终端用户能从中得到什么帮助。”
开发者Suzanna也提到了SE团队内部和与非开发者利益相关者交流模型时的差异。她表示:“在数据科学团队内部,调试、运行实验、测试和头脑风暴时,我们会讨论非常底层的细节,如超参数等。但向更广泛团队汇报时,我们会用更宏观的层面来描述,否则他们会一头雾水。这不是因为他们不聪明,而是他们有不同的视角,即业务视角,底层细节对他们来说没有意义。对我们来说,我们专注于底层;对他们来说,关注的是业务。” </
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



