题意:给定一个长为n的序列,要求划分成k个连续子区间,每个区间的和分别为sum[i],求最大的 sum[1]&sum[2]& ... & sum[k]
思路:根据二进制贪心的原则,高位的1选了比后面都选1要更优.那么bit从最高位(60)开始枚举,看看当前的区间,是否能够构成 1LL<<bit , 如果可以那么ans+=1LL<<bit
关于判断是否能构成: dp[n][k]:n个数,分成k堆,是否能使得 ((sum[1]&sum[2]& ... & sum[k])&1LL<<bit) >0 && ((sum[1]&sum[2]& ... & sum[k])&ans)==ans
dp的状态转移方程为:
if dp[0~n-1 -> j][k-1] ==1 && ( (sum[n]-sum[j])& 1LL<<bit )>0 && ( (sum[n]-sum[j])&ans )==ans 那么便有dp[n][k]=1 . 即为区间 DP
//#pragma comment(linker, "/stack:100000000")
//#pragma GCC optimize("Ofast,no-stack-protector")
//#pragma GCC target("sse,sse2,sse3,ssse3,sse4,popcnt,abm,mmx,avx,tune=native")
//#pragma GCC optimize("unroll-loops")
#include<bits/stdc++.h>
#define PI acos(-1.0)
#define pb push_back
#define F first
#define S second
#define debug puts
#define setp cout << fixed << setprecision(15)
#define fst ios::sync_with_stdio(false);cin.tie(0);cout.tie(0);
using namespace std;
typedef long long ll;
const int N=1e5+5;
const int MOD=998244353;
ll a[60],ans;
ll sum[60];
bool dp[60][60];
int main(void){
fst;
int k,n;
cin >> n >> k;
for(int i=1;i<=n;i++) cin >> a[i];
for(int i=1;i<=n;i++) sum[i]=sum[i-1]+a[i];
for(int i=57;i>=0;i--){
ll t=1ll << i;
memset(dp,0,sizeof dp);
dp[0][0]=1;
///dp[n][k]= dp[0~n-1 -> j][k-1]==1&&sum[n]-sum[j] & ans == ans && sum[n]-sum[j] & t ==1
for(int kk=1;kk<=k;kk++){
for(int nn=1;nn<=n;nn++){
for(int nnn=0;nnn<nn;nnn++){
if(dp[nnn][kk-1] && ((sum[nn]-sum[nnn])&ans)==ans &&(sum[nn]-sum[nnn])&t)
dp[nn][kk]=1;
}
}
}
// for(int i=0;i<=n;i++){
// for(int j=0;j<=k;j++) cout << dp[i][j]<<" ";puts("");
// }
if(dp[n][k]) ans+=t;
}
cout << ans << endl;
return 0;
}