всем привет. программка отличная. но вот такой момент: а можно ли добавить (или я тупо не нашел эту возможность?) какой-либо сайт в исключения? вот например задание на рерайт текста. сам текст по адвегосу 100% совпадает с тем, который на сайте. а с другими на 1-3%. вот можно ли как-то убирать определнный сайт из сравнения чтобы он искал совпадения только по остальным сайтам?
Согласен, что нужна функция, позволяющая исключить отдельный сайт из списка проверяемых. Сейчас объясню почему. Допустим, я сам написал статью, разместил на своем сайте и решил проверить её на уникальность. В итоге показывает, что найдено 100% совпадений на моем сайте, и кучу совпадений по 1-2% на других. Конечно, можно и вручную подсчитать уникальность по остальным совпадениям. Но это не удобно, и очень долго, когда их количество превышает 100 ссылок. Поэтому очень прошу добавить функцию, исключающую отдельный сайт из поиска.
вы не совсем понимаете суть вопроса. вопрос не в том как проверить абсолютно новую статью. а как проверить именно неуникальные куски в уже написанной и размещенной статье. чтоб легче было понять: вы написали статью и разместили на сайте. у вас 10 других сайтов списали по одному предложению. вы проверяете свой сайт и видите что у вас совпадение в тексте по 5-10% с 10 сайтами и 100% совпадение со своим сайтом. весь текст в плагиатусе у вас выделен желтым и непонятно какой именно кусок неуникален. естественно вы эти 5-10% на 10 сайтах сразу не найдете. либо придется вычитывать все 10 текстов. это неудобно.
кроме того, судя по вопросу, вы исходите только из того что есть ваш персональный сайт, на котором вы можете убрать текст и проверить "с нуля". но есть и другие варианты, когда сайт не ваш и повлиять на наличие текстов на нем вы не можете.
Спасибо, теперь я поняла, что вы имели в виду. У меня есть еще другой вопрос, кажется здесь его поднимали. Я вот делала рерайт одной статьи. По старой версии Плагиатуса уникальность 97%, а по новой 83%. И все эти 17% оставшихся процентов приходились на страницу с результатами поиска в Яндексе по какому-то запросу. Неужели эти совпадения нужно засчитывать в пользу неуникальности статьи? И еще что интересно, когда проверяла текст по абзацам уникальность каждого абзаца в отдельности в новой версии была выше, чем в старой (старая по абзацам тоже яндексовские "левые" ссылки выдавала), а вот когда весь текст в целом проверила, то результат выдал, как писала выше: новая - 83%, старая - 97%.
вопрос тоже интересный. я сам пока на новую версию не перешел. но в старой сейчас то же самое, ток ссылка на поисковый запрос рамблера :) а до этого было тоже самое и поисковик был bing.com какой-то.
кстати, Вы не могли бы мне кое-что пояснить. Допустим, после проверки выдает 6 раз по 2% совпадений с разными сайтами (т.е. в сумме получается 12), а внизу пишет, что всего 3% совпадений и уникальность текста 97%. Это нормально?
а фиг его знает. теоретически если на всех 6 сайтах совпадение в 2% на одной и той же фразе, то общая уникальность будет 98%. фраза то одна. поэтому 3% в вашем случае вполне может быть. но тут еще такое дело если прогнать один и тот же текст раз 5-6 подряд, то результаты будут отличаться и по процентам и по фразам. особенно это касается текстов "распространенной" тематики. например про "окна пвх" или там "туры в египет".
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено. Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186