最近在线笔试的一些感想和总结,阿里巴巴,腾讯,百度,360。c++研发,机器学习等岗位

本文分享了C/C++编程中的实用技巧与经验总结,包括基础算法实践、常见面试题目解析及复杂问题解决思路,适合希望提升编程技能的开发者。

持续更新中。。。




1.编程界牛人太多了,还是要好好a题,好好弄清楚基础算法,并且用代码实现


2.c/c++方向其实来回来去那么几道题,做好了记到脑子里。



下面就是我打算把不会的,不清楚的都贴上来然后好好解析做一下:



1


2

3









4



360还有一个题挺难的,下面是bbs 的解法:



5



输出结果:




// jingdongtest.cpp : 定义控制台应用程序的入口点。
//

#include "stdafx.h"
#include <iostream>
using namespace std;

int getHigh(int x)
{
	int result  = x;
	while(x>0)
	{
		x = x/2;
	result = x*2 + result;
	
	}

	return result;
}


class MyClass
{
public:
	MyClass(int i = 0)
	{
		cout<<i;
	}
	MyClass(const MyClass &x)
	{
		cout<<2;
	}
	MyClass& operator=(const MyClass &x)
	{//断点都不能打进来,说明输出没用
		cout<<3;
		return *this;
	}
	~MyClass()
	{
		cout<<4;
	}
};

class ClassA
{
	friend double func(const ClassA & obj1,const ClassA& obj2)
	{
		double da = obj1.i_ - obj2.i_;
		double db = obj1.j_ - obj2.j_;
		return (da*da + db*db);
	}
public:
	ClassA(int i,int j):i_(i),j_(j){}
protected:
private:
	int i_;
	int j_;
};


int _tmain(int argc, _TCHAR* argv[])
{
/*
	int x = 0;
	int result = 0;
	

	while(cin>>x)
	{
		result = result + getHigh(x);
		cout<<result<<endl;
	}
	
	cout<<x<<endl;*/

	struct  
	{
		union
		{
			char a;
			int b;
			int c;
		};
		/*union
		{
	     char r;
		 char o;
		};*/
		
		int e;
		char q;
		char w;
		
	} a;

	int x = sizeof(a);

	//int yichu = -1;
	//unsigned int feifu = yichu;
	//cout<<feifu;

	MyClass obj1(1),obj2(2);
	MyClass obj3 = obj1;



	ClassA obj11(1,2);
	ClassA obj21(3,4);
	cout<< func(obj11,obj21)<<endl;
	return 0;
}











这个是西安一个小公司机器学习的题目:









BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 46 批量梯度下降 47 随机梯度下降 48 具体步骤: 50 引言 72 1. 深度有监督学习在计算机视觉领域的进展 73 1.1 图像分类(Image Classification) 73 1.2 图像检测(Image Dection) 73 1.3 图像分割(Semantic Segmentation) 74 1.4 图像标注–看图说话(Image Captioning) 75 1.5 图像生成–文字转图像(Image Generator) 76 2.强化学习(Reinforcement Learning) 77 3深度无监督学习(Deep Unsupervised Learning)–预测学习 78 3.1条件生成对抗网络(Conditional Generative Adversarial Nets,CGAN) 79 3.2 视频预测 82 4 总结 84 5 参考文献 84 一、从单层网络谈起 96 二、经典的RNN结构(N vs N) 97 三、N VS 1 100 四、1 VS N 100 五、N vs M 102 Recurrent Neural Networks 105 长期依赖(Long-Term Dependencies)问题 106 LSTM 网络 106 LSTM 的核心思想 107 逐步理解 LSTM 108 LSTM 的变体 109 结论 110 196. L1与L2范数。机器学习 ML基础 易 163 218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习 DL基础 中 178 @李振华,https://www.zhihu.com/question/68109802/answer/262143638 179 219. 请比较下EM算法、HMM、CRF。机器学习 ML模型 中 179 223. BoostingBagging 181 224. 逻辑回归相关问题 182 225. 用贝叶斯机率说明Dropout的原理 183 227. 什么是共线性, 跟过拟合有什么关联? 184 共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。 184 共线性会造成冗余,导致过拟合。 184 解决方法:排除变量的相关性/加入权重正则。 184 勘误记 216 后记 219
评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

shiter

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值