От автора: дублирование URL в нескольких файлах Sitemap не вызовет проблем сканирования и индексации контента. Об этом Джон Мюллер рассказал во время дискуссии в Reddit.
Один из вебмастеров спросил представителя Google, может ли использование нескольких файлов Sitemap и дублирование в них URL страниц привести к некорректному сканированию контента сайта. Джон Мюллер пояснил, что это никак не отразится на качестве анализа и индексации содержимого площадки.
GoogleBot собирает все адреса, перечисленные в файлах Sitemap.xml, и обрабатывает их в виде единого списка. При этом главное, чтобы у дубликатов URL веб-страниц совпадали даты последнего изменения.
Источник: https://www.reddit.com