всем привет. программка отличная. но вот такой момент: а можно ли добавить (или я тупо не нашел эту возможность?) какой-либо сайт в исключения? вот например задание на рерайт текста. сам текст по адвегосу 100% совпадает с тем, который на сайте. а с другими на 1-3%. вот можно ли как-то убирать определнный сайт из сравнения чтобы он искал совпадения только по остальным сайтам?
Я позволю себе небольшой копипаст: "Advego Plagiatus - программа поиска в интернете частичных или полных копий текстового документа .... ... Также программа проверяет уникальность указанного URL." Источник: http://advego.ru/plagiatus/ Обратите внимание на последнее предложение: "Также программа проверяет уникальность указанного URL" Теперь к делу. Проверяю URL своего сайта на уникальность. Сайт собран на CMS Джумла. Большая часть совпадений приходится либо на сайты собранные на Джумле, либо на сайты посвященные оной. Вопрос - если заявляется функция проверки URL на уникальность, то как обойти проблемму с идентичностью URLов сайтов собранных на одной CMS? Для меня решение видится как раз в исключении определенных сайтов... хотя, возможно, есть и более элегантные варианты...
И еще в догонку. Не понятен вот какой момент. Проверяю УРЛ титула своего сайта, собраного на CMS. Завожу в поле программы www.site.ru/, гружу страницу, запускаю проверку, и выдает 100% совпадений с www.site.ru/. Загружаю www.site.ru/index.php, запускаю проверку - опять 100% совпадений с www.site.ru/. Как обойти этот момент?
и еще вот момент в пользу того, что я предлагал :) время от времени проявляется такая ботва: проверяешь текст и он выдает крупные совпадения (до 10%) на какие-то поисковики. раньше таким поисковиком был какой-то search.com а сейчас в этой роли выступает рамблер. [ссылки видны только авторизованным пользователям] предложения 1||кусок предложения 2 и т.д. от текста это не зависит причем. на любой кусок текста может выдать такую фигню. если перейти по ссылке то он показывает синтаксис запроса, но в результатах поиска по рамблеру таких слов вообще не показывается. при этом отдельные совпадения до 2% бывают на другие сайты. и соответственно нельзя быстро понять какой кусок входит именно в эти 2%. исключение этого нова. рамблер из списка проверки заметно улучшило бы разбор полетов.
Поисковики никаких сайтов не исключают. Поэтому вставляйте промежуточные слова, меняйте падежи и все такое. Текст должен быть уникальным без всяких исключений.
Согласен, что нужна функция, позволяющая исключить отдельный сайт из списка проверяемых. Сейчас объясню почему. Допустим, я сам написал статью, разместил на своем сайте и решил проверить её на уникальность. В итоге показывает, что найдено 100% совпадений на моем сайте, и кучу совпадений по 1-2% на других. Конечно, можно и вручную подсчитать уникальность по остальным совпадениям. Но это не удобно, и очень долго, когда их количество превышает 100 ссылок. Поэтому очень прошу добавить функцию, исключающую отдельный сайт из поиска.
Создал из своих текстов (основаны на заметках прошлых лет), попали под фильтр. 1 попал в бан из-за неуникальности, о чем и сообщает поддержка Яндекса. Теперь представьте каково проверять 6 раз один сайт старым плагиатусом, вводя в плагиутус урл каждой из 100 страниц, и каждый раз отыскивая совпадения, фрагменты ( пользовался прошлой версией плагиатуса).
Очень удобно было бы, если бы прост оисключали сайт из поиска и проверли все тексты. .Иногда и заказчику хочется знать степень совпадения со всеми статьями сайта.
А уникальность основана не только на поледовательности слов! Тут значителньую роль играет костяк. Если кто-то занимается рерайтом. то из 3 сайтов можно получить: 3 оригинальных - уник 100%, 3 - уник 75%, 3 уник 50%, далее. несмотря на уникальные четверословия в тексте сохранится костяк оригинала. придется переставлять абзацы.
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено. Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186