我正在对5亿个文件运行以下MD5检查,以检查重复项。这些脚本永远无法运行,我想知道如何加快运行速度。我怎样才能加快速度?当哈希已经存在时,我可以使用try catch循环而不是contains来引发错误吗?你们都会推荐什么?
$folder = Read-Host -Prompt 'Enter a folder path'
$hash = @{}
$lineCheck = 0
Get-ChildItem $folder -Recurse | where {! $_.PSIsContainer} | ForEach-Object {
$lineCheck++
Write-Host $lineCheck
$tempMD5 = (Get-FileHash -LiteralPath $_.FullName -Algorithm MD5).Hash;
if(! $hash.Contains($tempMD5)){
$hash.Add($tempMD5,$_.FullName)
}
else{
Remove-Item -literalPath $_.fullname;
}
}
如注释中所建议,您可能仅在与首先找到的文件长度匹配时才考虑开始对文件进行哈希处理。这意味着您不会为任何唯一的文件长度调用昂贵的哈希方法。
*注意:该Write-Host
命令本身非常昂贵,因此我不会显示每个迭代(Write-Host $lineCheck
),而仅显示找到匹配项的情况。
$Folder = Read-Host -Prompt 'Enter a folder path'
$FilesBySize = @{}
$FilesByHash = @{}
Function MatchHash([String]$FullName) {
$Hash = (Get-FileHash -LiteralPath $FullName -Algorithm MD5).Hash
$Found = $FilesByHash.Contains($Hash)
If ($Found) {$Null = $FilesByHash[$Hash].Add($FullName)}
Else {$FilesByHash[$Hash] = [System.Collections.ArrayList]@($FullName)}
$Found
}
Get-ChildItem $Folder -Recurse | Where-Object -Not PSIsContainer | ForEach-Object {
$Files = $FilesBySize[$_.Length]
If ($Files) {
If ($Files.Count -eq 1) {$Null = MatchHash $Files[0]}
If ($Files.Count -ge 1) {If (MatchHash $_) {Write-Host 'Found match:' $_.FullName}}
$Null = $FilesBySize[$_.Length].Add($_.FullName)
} Else {
$FilesBySize[$_.Length] = [System.Collections.ArrayList]@($_.FullName)
}
}
显示找到的重复项:
ForEach($Hash in $FilesByHash.GetEnumerator()) {
If ($Hash.Value.Count -gt 1) {
Write-Host 'Hash:' $Hash.Name
ForEach ($File in $Hash.Value) {
Write-Host 'File:' $File
}
}
}
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句