none
还是这个重复数据删除问题,新开帖继续求救 RRS feed

  • 问题

  • 日志如下:

    错误应用程序名称: FSDMHOST.EXE,版本: 6.3.9600.16384,时间戳: 0x5215f3be
    错误模块名称: ddppipeline.dll,版本: 6.3.9600.17396,时间戳: 0x5434de7f
    异常代码: 0xc0000005
    错误偏移量: 0x0000000000160a70
    错误进程 ID: 0xd6c
    错误应用程序启动时间: 0x01d12d674992421b
    错误应用程序路径: C:\Windows\SYSTEM32\FSDMHOST.EXE
    错误模块路径: C:\Windows\system32\ddppipeline.dll
    报告 ID: 5eef575b-996d-11e5-80c0-ecf4bbcced6b
    错误程序包全名:
    错误程序包相对应用程序 ID:

    GarbageCollection 和 Scrubbing 两个作业都没有问题,都能顺利完成。

    Optimization作业就不行,执行开始两个小时的扫描检测OK,到真正开始进行删除和压缩的时候,就异常终止了。应用日志里面就出现上面的日志。

    要优化的卷里面已经有了将近100TB的数据,物理空间是40TB。之前运行都是正常的,一个月前出现这种情况的。操作系统重装还是故障依旧。

    现在数据太大没有地方拷贝出来,希望能帮忙找个解决方法。

    谢谢

    2015年12月21日 1:58

答案

  • 您好,

    >>这台出问题的服务器上系统盘C盘,和一个D盘(400G左右),E盘是40TB。目前在D盘上测试一点问题都没有

    根据这种情况 ,个人 建议您将文件 备份到另外的磁盘上然后 重新 做  重复数据删除 。

    谢谢 


    Please remember to mark the replies as answers if they help and unmark them if they provide no help. If you have feedback for TechNet Subscriber Support, contact tnmff@microsoft.com .

    2015年12月27日 4:17
    版主

全部回复

  • 您好,

    》》要优化的卷里面已经有了将近100TB的数据,物理空间是40TB。

    您只对这个卷做了 数据重复删除 吗?

    如果 是 , 为了区分 是 重复数据 删除 dll 的问题 还是  卷的问题 ,  建议您 对另一 个 盘/卷 启用  重复数据 删除 ,看看能不能正常工作。

    如果 只有这个卷有问题,那么应该 看看这个卷是不是出了问题。

    另外 ,能不能解释一下 您 说的  “物 理空间 40TB ,将近 100TB 数据”  ?

    因为 卷也是有要求的:


    Volumes that are candidates for deduplication must conform to the following requirements:

    • Must not be a system or boot volume. Deduplication is not supported on operating system volumes.

    • Can be partitioned as a master boot record (MBR) or a GUID Partition Table (GPT), and must be formatted using the NTFS file system.

    • Can reside on shared storage, such as storage that uses a Fibre Channel or an SAS array, or when an iSCSI SAN and Windows Failover Clustering is fully supported.

    • If you’re using Windows Server 2012, don’t deduplicate Cluster Shared Volumes (CSVs). You can access data if a deduplication-enabled volume is converted to a CSV, but you cannot continue to process files for deduplication on Windows Server 2012.

    • Do not rely on the Microsoft Resilient File System (ReFS).

    • Can’t be larger than 64 TB in size.   For detailed guidance on determining the maximum volume size for your specific workload and system configuration, see Sizing Volumes for Data Deduplication in Windows Server.

    • Must be exposed to the operating system as non-removable drives. Remotely-mapped drives are not supported.


    https://technet.microsoft.com/en-us/library/hh831700.aspx

     

    Elton


    Please remember to mark the replies as answers if they help and unmark them if they provide no help. If you have feedback for TechNet Subscriber Support, contact tnmff@microsoft.com .

    2015年12月22日 10:17
    版主
  • 你好。

    物理磁盘的容量是40TB。12个4TB硬盘做成RAID6。10*4=40TB。里面的数据,也就是全部目录的属性有100TB。

    我另外一台也是物理40TB,但数据有170TB,目前也都是正常的,仍然可以正常运行Deduplication Optimization。

    这台出问题的服务器上系统盘C盘,和一个D盘(400G左右),E盘是40TB。目前在D盘上测试一点问题都没有。

    关键是这台服务器系统我都重新安装过,再启用Deduplication功能。仍然还是不行。对这个E盘CHKDSK/F过,也没有问题。

    所以我认为是这个40TB卷上的"System Volume Information"里面的数据出问题了,想问问怎么修复?

    2015年12月23日 3:25
  • 您好,

    >>这台出问题的服务器上系统盘C盘,和一个D盘(400G左右),E盘是40TB。目前在D盘上测试一点问题都没有

    根据这种情况 ,个人 建议您将文件 备份到另外的磁盘上然后 重新 做  重复数据删除 。

    谢谢 


    Please remember to mark the replies as answers if they help and unmark them if they provide no help. If you have feedback for TechNet Subscriber Support, contact tnmff@microsoft.com .

    2015年12月27日 4:17
    版主