C++中不大于K的矩形最大和
假设我们有一个二维矩阵和一个整数k。我们必须找到矩阵中一个矩形的最大和,使其和不大于k。如果输入如下:
| 1 | 0 | 1 |
| 0 | -3 | 2 |
并且k = 3,则输出将为3,因为标记矩形的和为3。
为了解决这个问题,我们将遵循以下步骤:
- 定义一个函数`maxSumSubmatrix()`,它将接收一个二维数组`matrix`和`k`作为参数。
- n := 行数,m := 列数
- ans := -inf
- for l := 0 to m-1:
- 定义一个大小为n的数组`rowSum`
- for r := l to m-1:
- for i := 0 to n-1:
- rowSum[i] := rowSum[i] + matrix[i][r]
- 定义一个集合s
- 将0插入s
- currSum := 0
- for i := 0 to n-1:
- currSum := currSum + rowSum[i]
- it := 集合s中不大于currSum – k的第一个元素
- if it != s的最后一个元素:
- ans := max(ans, (currSum - it))
- 将currSum插入s
- for i := 0 to n-1:
- 返回ans
让我们看下面的实现来更好地理解:
示例
#include <bits/stdc++.h>
using namespace std;
class Solution {
public:
int maxSumSubmatrix(vector<vector<int>>& matrix, int k) {
int n = matrix.size();
int m = matrix[0].size();
int ans = INT_MIN;
for(int l = 0; l < m; l++){
vector <int> rowSum(n);
for(int r = l; r < m; r++){
for(int i = 0; i < n; i++)rowSum[i] += matrix[i][r];
set < int > s;
s.insert(0);
int currSum = 0;
for(int i = 0; i < n; i++){
currSum += rowSum[i];
set <int> :: iterator it = s.lower_bound(currSum - k);
if(it != s.end()){
ans = max(ans, (currSum - *it));
}
s.insert(currSum);
}
}
}
return ans;
}
};
main(){
Solution ob;
vector<vector<int>> v = {{1,0,1},{0,-3,2}};
cout << (ob.maxSumSubmatrix(v, 3));
}输入
[{1,0,1},{0,-3,2}]
3输出
3
广告
数据结构
网络
关系数据库管理系统 (RDBMS)
操作系统
Java
iOS
HTML
CSS
Android
Python
C语言编程
C++
C#
MongoDB
MySQL
Javascript
PHP