C++中不大于K的矩形最大和
假设我们有一个二维矩阵和一个整数k。我们必须找到矩阵中一个矩形的最大和,使其和不大于k。如果输入如下:
1 | 0 | 1 |
0 | -3 | 2 |
并且k = 3,则输出将为3,因为标记矩形的和为3。
为了解决这个问题,我们将遵循以下步骤:
- 定义一个函数`maxSumSubmatrix()`,它将接收一个二维数组`matrix`和`k`作为参数。
- n := 行数,m := 列数
- ans := -inf
- for l := 0 to m-1:
- 定义一个大小为n的数组`rowSum`
- for r := l to m-1:
- for i := 0 to n-1:
- rowSum[i] := rowSum[i] + matrix[i][r]
- 定义一个集合s
- 将0插入s
- currSum := 0
- for i := 0 to n-1:
- currSum := currSum + rowSum[i]
- it := 集合s中不大于currSum – k的第一个元素
- if it != s的最后一个元素:
- ans := max(ans, (currSum - it))
- 将currSum插入s
- for i := 0 to n-1:
- 返回ans
让我们看下面的实现来更好地理解:
示例
#include <bits/stdc++.h> using namespace std; class Solution { public: int maxSumSubmatrix(vector<vector<int>>& matrix, int k) { int n = matrix.size(); int m = matrix[0].size(); int ans = INT_MIN; for(int l = 0; l < m; l++){ vector <int> rowSum(n); for(int r = l; r < m; r++){ for(int i = 0; i < n; i++)rowSum[i] += matrix[i][r]; set < int > s; s.insert(0); int currSum = 0; for(int i = 0; i < n; i++){ currSum += rowSum[i]; set <int> :: iterator it = s.lower_bound(currSum - k); if(it != s.end()){ ans = max(ans, (currSum - *it)); } s.insert(currSum); } } } return ans; } }; main(){ Solution ob; vector<vector<int>> v = {{1,0,1},{0,-3,2}}; cout << (ob.maxSumSubmatrix(v, 3)); }
输入
[{1,0,1},{0,-3,2}] 3
输出
3
广告