加入书架 | 推荐本书 | TXT下载

三四中文网->脑回路清奇的主角们TXT下载->脑回路清奇的主角们

正文 第501章 幻数据压缩算法2

作者:纯白色科幻宅        书名:脑回路清奇的主角们        类型:历史军事       直达底部↓       返回目录

一秒记住 三四中文网 www.534zw.com 手机同步阅读请访问 mi.534zw.com

    =数据压缩算法=统计算法=

    001100;001110;110001;110011;

    把数据按照顺序对齐:

    001100;001110;110001;110011;

    把数据按照大小对齐:

    110011;110001;001110;001100;

    把数据按照近似对齐:

    110011和001100互为求反;110001和001110互为求反;

    每一段数据,都有多个标签,通过添加标签的方式,从而减少数据穷举试错的次数。

    =有限进制速记算法=

    把任何数都可以记录为A^B*C!+D;A的B次方乘以C的阶乘加D;

    如43的37次方乘以31的阶乘加499739

    43^37*31!+499739

    43^37=2.7436762028363398179986072951166e+60

    31!=8.22283865417792281772556288e+33

    43^37*31!=2.2560806735230762092253487562356e+94

    =跳数统计速记算法=

    如101001000100001000001000000100000001

    123456789012345678901234567890123456→作者避免自己看看得眼睛疼,所以使用数字在特定字体下宽度和高度是一样的方式,来进行作为标尺,数间隔多少位用的。

    使用跳一位1的方式统计,结果如下:

    奇数次1生效:偶数次1被当做0:1(中间有4个0,其中出现过一次1)1(中间有8个0,其中出现过一次1)1(中间有12个0,其中出现过一次1)+尾数00000001

    偶数次1生效:头数10+1(中间有6个0,其中出现过一次1)1(中间有10个0,其中出现过一次1)1(中间有14个0,其中出现过一次1)

    然后把这些数据比对合并,就能得出源数据。

    使用跳两位1的方式统计,结果如下:

    第一个1对齐:1(中间有8个0,其中出现过两次1)1(中间有17个0,其中出现过两次1)1+尾数00000001

    第二个1对齐:头数10+1(中间有11个0,其中出现过两次1)1(中间有20个0,其中出现过两次1)1

    第三个1对齐:头数10100+1(中间有11个0,其中出现过两次1)1(中间有14个0,其中出现过两次1)1+尾数000000100000001

    也就是说,当1和0不连续的情况出现得越多,那么使用跳N个1(以及另一个注册表中跳N个0)的统计数据,N的取值越大,压缩比例越高;当1和0不连续的情况出现得越少,那么使用跳N个1(以及另一个注册表中跳N个0)的统计数据,N的取值越小(不排除N=0的情况),压缩比例越高;

    =数据对齐算法=

    如:

    101001000100001000001000000100000001

    101010101010101010101010101010101010

    100110011001100110011001100110011001

    123456789012345678901234567890123456

    第一种标尺:10循环充满

    完全一致:(1,2,3,4,8,12,14,15,16,18,20,21,22,24,26,30,32,34)

    完全单比特求反:(5,6,7,9,10,11,13,17,19,23,25,27,28,29,31,33)

    第二种标尺:1001循环充满

    完全一致:(1,2,7,11,14,18,19,21,22,23,26,27,28,30,31,34,35,36)

    完全单比特求反:(3,4,5,6,8,9,10,12,13,15,16,17,20,24,25,29,32,33)

    第N种标尺:????

    完全单比特一致:(*,*,*……)

    完全双比特一致:(*,*,*……)

    完全多比特一致:(*,*,*……)

    完全单比特求反:(*,*,*……)

    完全双比特求反:(*,*,*……)

    完全多比特求反:(*,*,*……)

    使用的算法越多,那么算法所生成的数据就越多,相应的就可以快速互相校验,从而避免1个比特的篡改导致最终损失1ZB其中的900TB数据的极端压缩文件异常灾难;毕竟压缩率越高,就意味着一旦出现了压缩文件缺失以及特定数据不可读取(比如硬件损坏,磁盘坏道,软件权限不足)就会导致最终解压缩所缺失的部分越多;压缩率越高,就要求容错能力和纠错能力越强,比如说,把1ZB的数据,压缩成1GB数据,1GB数据中随机有百分之五十的数据不可读取,是否能够通过剩下的百分之五十数据逆推出整个1GB数据内容?从而可以解压缩成原先的压缩前的1ZB数据(当然了,容错和纠错就难免会增加试错和穷举的运算量)。


热门小说推荐: 剑来 圣墟 夜天子 斗破苍穹 永夜君王 斗罗大陆 情欲超市 大团结 乱伦大杂烩 乱伦系列(未删节)