題面node
一開始想到一個 O(N^2) 作法,先把x排序,而後順次枚舉x最大的點,看向前最多能夠保留多少點 (也就是先無論正方形的上下長度限制,先考慮左右的限制)。而後再對這些點作一遍相似的。。(等等這麼一說感受怎麼成 O(N^2 logN)的了23333)。c++
但反正這樣確定是不行的,數據太大了,咱們要作一些優化。git
咱們保留限制左右邊界的這個過程,看能不能優化一下限制y座標找答案的過程。
考慮一顆線段樹,從左向右第i個葉子節點表明若是上邊界在縱座標i,此時的答案是多少 (注意,右邊界是在枚舉的過程當中不斷右移的,因此這顆線段樹是不斷變化的)。算法
顯然,加入縱座標爲y的點以後,第 y 到 第 y+k 的葉子的答案都會 +1;刪點反之。優化
因而咱們把x座標排序後單調掃一遍,邊掃邊維護線段樹最大值&更新答案就能夠了。spa
不過如今還有一點小問題:線段樹的葉子節點有多大 2*10^9多個。blog
直接寫的話由於涉及的邊界葉子很少,因此動態開點線段樹應該是能夠過的;但咱們想要時空複雜度更低的算法,那麼考慮一下是否能夠離散化呢?排序
像這種葉子過多的線段樹想要離散化的話,必須能夠證實出其正確性:好比這個題,咱們稱一個沒有被任何y[i]與y[i]+k覆蓋到的縱座標爲空點,其他爲非空點。若是離散化的話,咱們就默認最後的答案必定是在非空點處取到。事實也的確是這樣的,考慮一個空點,若是它要被區間+1覆蓋到,它兩邊最近的非空點確定也會被覆蓋到;區間-1的話可能當作以前那個區間+1被撤銷了,因此不用考慮。get
恩,這樣就能夠很舒服的AC,代碼也很好寫。it
#include<bits/stdc++.h> #define ll long long using namespace std; const int N=100005; #define lc (o<<1) #define mid (l+r>>1) #define rc ((o<<1)|1) inline int read(){ int x=0; char ch=getchar(); for(;!isdigit(ch);ch=getchar()); for(;isdigit(ch);ch=getchar()) x=x*10+ch-'0'; return x; } struct node{ int x,y,z; bool operator <(const node &u)const{ return x<u.x; } }a[N]; int n,k,num[N*2],ky,ans,w; int mx[N*8+1],tag[N*8+1],le,ri; inline void Get(int o,int ad){ tag[o]+=ad,mx[o]+=ad;} inline void pushdown(int o){ Get(lc,tag[o]),Get(rc,tag[o]),tag[o]=0;} void update(int o,int l,int r){ if(l>=le&&r<=ri){ Get(o,w); return;} pushdown(o); if(le<=mid) update(lc,l,mid); if(ri>mid) update(rc,mid+1,r); mx[o]=max(mx[lc],mx[rc]); } inline void solve(){ sort(a+1,a+n+1); for(int i=1;i<=n;i++) num[++ky]=a[i].y,num[++ky]=a[i].z; sort(num+1,num+ky+1),ky=unique(num+1,num+ky+1)-num-1; for(int i=1;i<=n;i++){ a[i].y=lower_bound(num+1,num+ky+1,a[i].y)-num; a[i].z=lower_bound(num+1,num+ky+1,a[i].z)-num; } for(int i=1,l=1;i<=n;ans=max(ans,mx[1]),i++){ while(a[i].x-a[l].x>k) le=a[l].y,ri=a[l].z,w=-1,update(1,1,ky),l++; le=a[i].y,ri=a[i].z,w=1,update(1,1,ky); } } int main(){ n=read(),k=read(); for(int i=1;i<=n;i++) a[i].x=read(),a[i].y=read(),a[i].z=a[i].y+k; solve(),printf("%d\n",ans); return 0; }