У меня года 2-3 назад было три шопа неплохих с хербальными пилзами, по шопу на каждую пилзу. От партнёрки я брал только страницу order.php (которая находилась на домене партнёрки), и подгружал её ифреймом в диз шопов. Ту страницу, где это подгружалось - закрыл через роботс.тхт
Всё остальное было уникальное, как темплэйты, так и контент, шопы не перелинкованны, расположенны на разных ip. Даже бэки у них - разные.
Почему, просто в robots.txt не закрыть страницу? Отлично помагает от индексации.
А если нужно кусочек закрыть? Да и когда нужно закрывать множество страниц, не связанных друд другом никак, то это очень муторно прописывать все адреса а роботс.тхт.
Я закрываю в роботс и ставлю в nofollow
А если нужно кусок тексат закрыть, как тут с ноуфоллоу? не катит...