我的百度云盘容量里面没多少东西怎么容量满了

百度网盘里被刚刚删除的一些文件并不会立刻消失而是被移动到了回收站,所以空间容量还是没变

回收站的文件要一两周之后才会自动删除,你可以自己点击百度网盤的回收站进行确认清空操作这样空间容量就能变大一些了。

你对这个回答的评价是

百度百度云盘容量保存一个数量較大的文件保存一半我把删了,但是为什么容量没少... 百度百度云盘容量保存一个数量较大的文件,保存一半我把删了但是为什么容量没少?

1982年上海业余工业大学化工系毕业 现退休

在垃圾箱中保留着怕你反悔可恢复。进入垃圾箱彻底删除

你对这个回答的评价是?

前段时间在使用百度网盘时突嘫发现百度网盘可以免费领取 2TB 空间啦!

  网络硬盘大家可能都或多或少的接触过,不得不说在万物皆云的时代里这是一种非常好的网絡工具,而对我们这种穷到掉渣的免费用户来说硬盘空间 简直就是硬伤,刚开始使用的时候真是为了空间各种折腾(做他那里所谓的任务),到头来也才扩充了 5G 左右现在好了,随随便便、轻轻松松就有了 2T 的空间

  而这突如其来的 2T 空间是如何实现的呢?

  假如我想要为每个用户提供 1G 的网络存储空间

  如果服务器上有一颗 1000G 的硬盘可以全部为用户提供数据储存,如果每个用户分配 1G 的最大储存空间那么能分配给多少个用户使用呢?

  你一定说是 0 个用户

  但是事实上你这么分配了,你会发现每个用户平时根本不会上传 1G 的东西將容量占的满满的有多有少,但平均用户平时只上传 50M 的文件也就是说,如果你将 1000G 的硬盘分给 1000 个人使用但只有效利用了其中的 50M*1000=50G 的空间,剩余 950G 的空间基本都完全浪费了

  你可以变通一下,将这 1000G 的空间分配给 20000 个用户使用每个人的上传上限容量还是 1G,但每人平时还是平均上传 50M 的数据那么 00G,这下子就把宝贵的服务器上的存储空间充分利用了但你又怕这样分配给 20000 个人后,万一某一刻人们突然多上传点数據那么用户不是就觉察出来你分给人家的 1G 空间是假的了吗?所以可以不分配那么多人只分配给 19000 人,剩下一些空间做应急之用

  突嘫发现一下子将可分配的用户数量翻了 19 倍啊,了不起那还有没有办法更加有效的利用一下呢?

  如果我有 1000 个以上的服务器一个服务器上有 1000G 空间,那么我们每个服务器上都要留下 50G 的空白空间以备用户突然上传大数据时导致数据塞满的情况那么我这 1000 个服务器上就空出了 1000 囼*50G=50000G 的空间被浪费了,多么可惜所以攻城狮们发明了存储集群,使得一个用户的数据可以被分配在多个服务器上存储但在用户 那看起来呮是一个 1G 的连续空间,那么就没必要在每个服务器上预留出应急的空间了甚至可以充分的将前一个服务器塞满后,在将数据往下一个服務器中塞这样保证了服务器空间的 最大利用,如果某一刻管理员发现用户都在疯狂上传数据(在一个大规模用户群下这样的概率少之叒少)导致我现有提供的空间不够了,没关系只需要随手加几 块硬盘或者服务器就解决了。

  好吧这下子我们的服务器空间利用高哆了,可以将一定量的空间分配给最多的用户使用了但有没有更好的改进方案呢?

  管理员有一天发现即使每个用户平均下来只存儲 50M 的东西,但这 50M 也不是一蹴而就的是随着1-2 年的使用慢慢的达到这个数量的,也就是说一个新的用户刚刚注册我的网络空间时,不会上傳东西或者只上传一点非常小的东西。那么我为每一个用户都初始分 配了 50M 的空间即使将来 2 年后他们会填满这 50M ,但这期间的这空间就有佷多是浪费的啊所以聪明的攻城狮说:既然我们可以分布式、集群式存储,一个用户的数据可以分布在多个服务器上那么我们就假设┅开始就给一个新注册的用户提供 0M 的空间,将来他用多少我就给他提供多少存储空间,这样就彻底的保证硬盘的利用了但用户的前端還是要显示 1G 的。

  工程师的这个点子使得我在建立网盘初期能用 1 台 1000G 的服务器提供了大约 1000000 人来注册和使用,随着注册的人多了我也有錢了,也可以不断增加服务器以提供他们后期的存储了同时因为一部分服务器完成了一年多购买,我的购买成本也下来了

  那么…這就结束了吗?

  若是邮箱提供商的话这样的利用率够高了。但网盘就不一样了

  聪明的工程师发现:不同于邮箱,大家的内容囷附件绝大多数都是自创的和不同的但网盘上大家上传的东西很多都是重复的。

  比如:张三今天下载了一部《TOKYO HOT》上传到了自己的网盤上李四在三天后也下载了一模一样的《TOKYO HOT》上传到了网络硬盘上,随着用户的增多你会发现总共有 1000 个人上传了 1000 份一模一样的文件到你寶贵的服务器空间上,所以工程师想出一个办法既然是一样的文件,我就只存一份不久好啦然后在用户的前端显示是没人都有一份不玖行 啦。当某些用户要删除这个文件的时候我并不真的删除,只需要在前端显示似乎删除了但后端一直保留着以供其他拥有此文件的鼡户下载。直到所有使用此文件 的用户都删除了这个文件我再真的将其删除吧

  这样子随着存储的数据越来越多,注册的用户越来越哆其上传的重复数据越来越多。你发现这样的检测重复文件存储的效率越来越大这样算下来似乎每个人上传的不重复的文件只能平均 1M/鼡户。这下子你可以提供超过 50 倍的用户使用您这有限的空间了

  但伴随着使用,你又发现一个规律:

  张三上传的《TOKYO HOT N0124》和李四上传嘚《TH n124》是同一个文件只不过文件名不一样,难道我就不能识别出他们是一个文件然后只将其分别给不同的用户保存成不同的文件名不僦行啦?确实可行但 这要利用一些识别文件相同性的算法,例如 MD5 值等只要两个文件的 MD5 值一样,文件大小一样我就认为它们是相同的攵件,只需要保存一份文件并给不同的用户记作不同的文件名就好了

  有一天你发现,因为每一个文件都需要计算 MD5 值导致 CPU 负荷很大,而且本来一样的文件非要浪费带宽上传回来才可以检测一致性能改进一下吗?

  聪明的工程师写了个小软件或小插件美其名曰“仩传控件”,将计算 MD5 的工作利用这个软件交给了上传用户的电脑来完成一旦计算出用户要上传的数据和服务器上已经存储的某个数据是┅样的,就干脆不用上传了直接在用户那里标 记上这个文件已经按照 XX 文件名上传成功了。这个过程几乎是瞬间搞定了并给其起了个高富帅的名字“秒传”!

  通过以上这么多步骤,你发现本来你只能给 1000 用户提供网络空间的这么多改进办法后,在用户端显示 1G 空间不变嘚情况下近乎可以为 1000000 个用户提供网络空间了。

  这样若是您哪天心情好对外宣传说:我要将每个用户的存储空间上限提升到 1TB。那么烸个用户平均还是只上传 50M 数据只有极个别的用户上传了突破 1G 原始空间的数据,你会发现所付出的成本近乎是微乎其微的

  辛勤的攻城狮还在为如何更有效率的利用服务器提供的磁盘空间在不屑努力和挖掘着……

国家级奖学金获得者 公司先进个人 拥有多本职业资格证书

  百度云免费网盘容量是2063G,其中5G是自带的其余2048G是做完任务免费赠送的。具体获赠2048G的流程如下:

我要回帖

更多关于 百度云盘容量 的文章

 

随机推荐