常规做法当然是单调队列,但我全都要。
单调队列
Solution
求最大值和最小值的方法实际上是一样的。
这里只以求最大值为例:
从左往右扫到某一个值的时候,如果当前值的大小比前面的某些值要大的时候,结尾是当前位置往右的的最大值就不可能是前面比当前值小的。
还有一种情况是队头已经超出这个区间范围了,这个时候就需要先把他给剔除。
于是构造一个单调队列,队头是值较大的一端,而队尾是值较小的一端,那么构造好每一个位置的单调队列后,单调队列的队头就是这个区间的最大值。
时间复杂度 空间复杂度
Code
#include<bits/stdc++.h> using namespace std; vector<int> calc(vector<int> a, int k, bool isMin) { const int n = a.size(); // 如果是求最小值,取负数做一遍求最大值的,然后再将结果取负数即可 if(isMin) for(int &x: a) x = -x; deque<int> q; // 双端队列 vector<int> ret(n - k + 1); // 返回的数组 for(int i = 0; i < n; i++) { while(!q.empty() && q.front() <= i - k) q.pop_front(); // 下标超出区间 // 构造出单调队列 将没有机会成为最大值的出队 while(!q.empty() && a[q.back()] < a[i]) q.pop_back(); q.push_back(i); // 队头作为最大值 if(i + 1 >= k) ret[i + 1 - k] = a[q.front()]; } if(isMin) for(int &x: ret) x = -x; return ret; } int main() { ios::sync_with_stdio(false), cin.tie(0), cout.tie(0); int n, k; cin >> n >> k; vector<int> a(n); for(int &x: a) cin >> x; vector<int> res = calc(a, k, true); // 计算各区间最小值 for(int i = 0; i < n - k + 1; i++) { cout << res[i] << " \n"[i == n - k]; } res = calc(a, k, false); // 计算各区间最大值 for(int i = 0; i < n - k + 1; i++) { cout << res[i] << " \n"[i == n - k]; } }
ST表
Solution
ST表可以预处理数组,然后可以询问每一个区间内的最大值或者是最小值。
那么就可以很轻松地MLE这一道题了。
怎么卡我内存啊!!算了一下发现确实不行。
下面代码只过了50%。
时间复杂度 空间复杂度
Code
#include<bits/stdc++.h> using namespace std; // 建ST表 template<typename T> struct ST { vector<vector<pair<T, T>>> dp; vector<int> lg; // 预处理 O(nlog(n)) ST(const vector<T> &a) { const int n = a.size(), m = 33 - __builtin_clz(n); // 申请足够的空间 需要的空间有点多 dp = vector<vector<pair<T, T>>>(n + 1, vector<pair<T, T>>(m)); lg = vector<int> (n + 1, 0); for(int i = 1; i <= n; i++) { dp[i][0] = {a[i - 1], a[i - 1]}, lg[i] = lg[i >> 1] + 1; } for(int j = 1; (1 << j) <= n; j++) { for(int i = 1; i + (1 << j) - 1 <= n; i++) { pair<T, T> &x = dp[i][j - 1], &y = dp[i + (1 << (j - 1))][j - 1]; dp[i][j] = {min(x.first, y.first), max(x.second, y.second)}; } } } // 询问 O(1) pair<T, T> minmax(int l, int r) { l++, r++; int k = lg[r - l + 1] - 1; return { min(dp[l][k].first, dp[r - (1 << k) + 1][k].first), max(dp[l][k].second, dp[r - (1 << k) + 1][k].second) }; } }; int main() { ios::sync_with_stdio(false), cin.tie(0), cout.tie(0); int n, k; cin >> n >> k; vector<int> v(n); for(int &x: v) cin >> x; ST<int> obj(v); vector<int> a1(n - k + 1), a2(n - k + 1); for(int i = k - 1; i < n; i++) { tie(a1[i - k + 1], a2[i - k + 1]) = obj.minmax(i - k + 1, i); } for(int i = 0; i < n - k + 1; i++) { cout << a1[i] << " \n"[i == n - k]; } for(int i = 0; i < n - k + 1; i++) { cout << a2[i] << " \n"[i == n - k]; } }
线段树
Solution
线段树就很强大了,相比于ST表还可以支持修改内存也只是,但是各种操作的复杂度都是的而不是的。
建完线段树暴力就完事了。
可恶啊,最小值和最大值一起求还是会MLE。那只能分开来求,而且分开来求的话就不需要把答案存起来。
时间差点超了但是能过就行嘻嘻。
时间复杂度 空间复杂度
Code
#include<bits/stdc++.h> using namespace std; #define lson i << 1, l, mid #define rson i << 1 | 1, mid + 1, r #define mid ((l + r) >> 1) const int N = 1000000 + 10; int b[N << 2], a[N]; // 线段树建树 void build(int i, int l, int r, bool is) { if(l == r) { b[i] = a[l]; return; } build(lson, is); build(rson, is); if(is) b[i] = min(b[i << 1], b[i << 1 | 1]); else b[i] = max(b[i << 1], b[i << 1 | 1]); } // 线段树查询 int query(int i, int l, int r, int L, int R, bool is) { // 超出范围返回一个极限值 if(r < L || l > R) return is ? INT_MAX : INT_MIN; if(L <= l && r <= R) return b[i]; if(is) return min(query(lson, L, R, is), query(rson, L, R, is)); else return max(query(lson, L, R, is), query(rson, L, R, is)); } int main() { ios::sync_with_stdio(false), cin.tie(0), cout.tie(0); int n, k; cin >> n >> k; for(int i = 1; i <= n; i++) cin >> a[i]; build(1, 1, n, true); for(int i = k; i <= n; i++) { cout << query(1, 1, n, i - k + 1, i, true) << " \n"[i == n]; } build(1, 1, n, false); // 省点空间做build两次线段树 for(int i = k; i <= n; i++) { cout << query(1, 1, n, i - k + 1, i, false) << " \n"[i == n]; } }