思想:
方法一:DFS+去重
直接在前一题的基础上进行修改,对结果集进行去重。
unique()用于删除相邻的重复元素;
resize()用于重置vector的大小;
class Solution {
private:
//Subsets II : DFS
void dfs(const vector<int> &nums, int depth, vector<int> &path, vector<vector<int>> &res) {
if(depth == nums.size()) {
res.push_back(path);
return;
}
path.push_back(nums[depth]);
dfs(nums,depth+1,path,res);
path.pop_back();
dfs(nums, depth+1, path, res);
}
public:
vector<vector<int>> subsetsWithDup(vector<int>& nums) {
sort(nums.begin(),nums.end());
vector<vector<int>> res;
vector<int> path;
dfs(nums,0,path,res);
sort(res.begin(),res.end());
vector<vector<int>>::iterator it=unique(res.begin(),res.end());
res.resize(distance(res.begin(), it));
return res;
}
};方法二:DFS
在每一层不选重复的元素,到下一层再去选,可以保证唯一。
比如:
location = [0,1,2]
elements = [1,1,1]
3个重复的元素,第0层只能控制第0位置的1选或者不选,第1位置的1和第2位置的1不能在第0层选。
同理,第1层只能控制第1位置的1选或者不选,第2位置的1要到下一层去选。
class Solution {
private:
//Subsets II : DFS
void dfs(const vector<int> &nums,vector<int>::iterator start,vector<int> &path, vector<vector<int>> &res) {
res.push_back(path);
for(auto i = start; i < nums.end(); i++) {
if(i != start && *i == *(i-1)) continue;
path.push_back(*i);
dfs(nums,i+1,path,res);
path.pop_back();
}
}
public:
vector<vector<int>> subsetsWithDup(vector<int>& nums) {
sort(nums.begin(),nums.end());
vector<vector<int>> res;
vector<int> path;
dfs(nums,nums.begin(),path,res);
return res;
}
};
本文介绍了解决带有重复元素的子集生成问题的两种方法:一是通过DFS结合去重操作来确保结果集中没有重复的子集;二是通过在递归过程中跳过重复元素来避免生成重复的子集。

被折叠的 条评论
为什么被折叠?



