Биржа копирайтинга Антиплагиат SEO-анализ текста Адвего Лингвист Проверка орфографии

Обсуждение Advego Plagiatus — Форум Адвего

боковая панель
Адвего / Обсуждение Advego Plagiatus
DELETED
а можно ли исключать сайт из поиска совпадений?

всем привет. программка отличная. но вот такой момент: а можно ли добавить (или я тупо не нашел эту возможность?) какой-либо сайт в исключения? вот например задание на рерайт текста. сам текст по адвегосу 100% совпадает с тем, который на сайте. а с другими на 1-3%. вот можно ли как-то убирать определнный сайт из сравнения чтобы он искал совпадения только по остальным сайтам?

Написал: DELETED , 20.08.2009 в 12:42
Комментариев: 32
Комментарии

Показано 20 комментариев
Skif765
За  1  /  Против  0
Skif765  написал  10.09.2009 в 19:30
Я позволю себе небольшой копипаст:
"Advego Plagiatus - программа поиска в интернете частичных или полных копий текстового документа .... ... Также программа проверяет уникальность указанного URL." Источник: http://advego.ru/plagiatus/
Обратите внимание на последнее предложение: "Также программа проверяет уникальность указанного URL"
Теперь к делу. Проверяю URL своего сайта на уникальность. Сайт собран на CMS Джумла. Большая часть совпадений приходится либо на сайты собранные на Джумле, либо на сайты посвященные оной. Вопрос - если заявляется функция проверки URL на уникальность, то как обойти проблемму с идентичностью URLов сайтов собранных на одной CMS?
Для меня решение видится как раз в исключении определенных сайтов... хотя, возможно, есть и более элегантные варианты...

                
Skif765
За  1  /  Против  0
Skif765  написал  10.09.2009 в 19:44
И еще в догонку. Не понятен вот какой момент. Проверяю УРЛ титула своего сайта, собраного на CMS. Завожу в поле программы www.site.ru/, гружу страницу, запускаю проверку, и выдает 100% совпадений с www.site.ru/. Загружаю www.site.ru/index.php, запускаю проверку - опять 100% совпадений с www.site.ru/. Как обойти этот момент?

                
DELETED
За  0  /  Против  0
DELETED  написал  19.10.2009 в 12:57  в ответ на #13
укажите url вашего сайта

                
DELETED
За  0  /  Против  0
DELETED  написал  19.10.2009 в 00:45
и еще вот момент в пользу того, что я предлагал :) время от времени проявляется такая ботва: проверяешь текст и он выдает крупные совпадения (до 10%) на какие-то поисковики. раньше таким поисковиком был какой-то search.com а сейчас в этой роли выступает рамблер. [ссылки видны только авторизованным пользователям] предложения 1||кусок предложения 2 и т.д. от текста это не зависит причем. на любой кусок текста может выдать такую фигню. если перейти по ссылке то он показывает синтаксис запроса, но в результатах поиска по рамблеру таких слов вообще не показывается. при этом отдельные совпадения до 2% бывают на другие сайты. и соответственно нельзя быстро понять какой кусок входит именно в эти 2%. исключение этого нова. рамблер из списка проверки заметно улучшило бы разбор полетов.

                
DELETED
За  0  /  Против  0
DELETED  написала  19.10.2009 в 01:26  в ответ на #14
Вы скачали последнюю версию плагиатуса?

                
DELETED
За  0  /  Против  0
DELETED  написал  19.10.2009 в 17:26  в ответ на #15
неа. я почитал там отзывы что чета с ней пока не то и не стал качать :) а там уже это есть?

                
DELETED
За  0  /  Против  0
DELETED  написала  19.10.2009 в 17:58
Поисковики никаких сайтов не исключают. Поэтому вставляйте промежуточные слова, меняйте падежи и все такое. Текст должен быть уникальным без всяких исключений.

                
DELETED
За  0  /  Против  0
DELETED  написал  19.10.2009 в 23:21  в ответ на #18
там выше написано для чего может пригодиться эта функция. если вам лично она не нужна, то никто не заставляет Вас ей пользоваться.

                
DELETED
За  3  /  Против  0
DELETED  написал  20.10.2009 в 00:01
Согласен, что нужна функция, позволяющая исключить отдельный сайт из списка проверяемых. Сейчас объясню почему.
Допустим, я сам написал статью, разместил на своем сайте и решил проверить её на уникальность. В итоге показывает, что найдено 100% совпадений на моем сайте, и кучу совпадений по 1-2% на других. Конечно, можно и вручную подсчитать уникальность по остальным совпадениям. Но это не удобно, и очень долго, когда их количество превышает 100 ссылок. Поэтому очень прошу добавить функцию, исключающую отдельный сайт из поиска.

                
DELETED
За  0  /  Против  0
DELETED  написала  20.10.2009 в 00:06  в ответ на #20
+1

                
DELETED
За  0  /  Против  0
DELETED  написал  20.10.2009 в 11:56  в ответ на #20
вот вот. именно по этой причине у меня и возникла идея добавить такую фишку

                
DELETED
За  0  /  Против  0
DELETED  написала  31.10.2009 в 20:56  в ответ на #20
А нельзя проверить написанную Вами статью до размещения на Вашем сайте?

                
DELETED
За  0  /  Против  0
DELETED  написал  01.11.2009 в 00:18  в ответ на #25
вы не совсем понимаете суть вопроса. вопрос не в том как проверить абсолютно новую статью. а как проверить именно неуникальные куски в уже написанной и размещенной статье. чтоб легче было понять: вы написали статью и разместили на сайте. у вас 10 других сайтов списали по одному предложению. вы проверяете свой сайт и видите что у вас совпадение в тексте по 5-10% с 10 сайтами и 100% совпадение со своим сайтом. весь текст в плагиатусе у вас выделен желтым и непонятно какой именно кусок неуникален. естественно вы эти 5-10% на 10 сайтах сразу не найдете. либо придется вычитывать все 10 текстов. это неудобно.

кроме того, судя по вопросу, вы исходите только из того что есть ваш персональный сайт, на котором вы можете убрать текст и проверить "с нуля". но есть и другие варианты, когда сайт не ваш и повлиять на наличие текстов на нем вы не можете.

                
DELETED
За  0  /  Против  0
DELETED  написала  01.11.2009 в 10:38  в ответ на #26
Спасибо, теперь я поняла, что вы имели в виду.
У меня есть еще другой вопрос, кажется здесь его поднимали. Я вот делала рерайт одной статьи. По старой версии Плагиатуса уникальность 97%, а по новой 83%. И все эти 17% оставшихся процентов приходились на страницу с результатами поиска в Яндексе по какому-то запросу. Неужели эти совпадения нужно засчитывать в пользу неуникальности статьи? И еще что интересно, когда проверяла текст по абзацам уникальность каждого абзаца в отдельности в новой версии была выше, чем в старой (старая по абзацам тоже яндексовские "левые" ссылки выдавала), а вот когда весь текст в целом проверила, то результат выдал, как писала выше: новая - 83%, старая - 97%.

                
DELETED
За  0  /  Против  0
DELETED  написал  01.11.2009 в 11:58  в ответ на #27
вопрос тоже интересный. я сам пока на новую версию не перешел. но в старой сейчас то же самое, ток ссылка на поисковый запрос рамблера :) а до этого было тоже самое и поисковик был bing.com какой-то.

                
DELETED
За  0  /  Против  0
DELETED  написала  01.11.2009 в 20:28  в ответ на #28
кстати, Вы не могли бы мне кое-что пояснить. Допустим, после проверки выдает 6 раз по 2% совпадений с разными сайтами (т.е. в сумме получается 12), а внизу пишет, что всего 3% совпадений и уникальность текста 97%. Это нормально?

                
DELETED
За  0  /  Против  0
DELETED  написал  01.11.2009 в 20:59  в ответ на #29
а фиг его знает. теоретически если на всех 6 сайтах совпадение в 2% на одной и той же фразе, то общая уникальность будет 98%. фраза то одна. поэтому 3% в вашем случае вполне может быть. но тут еще такое дело если прогнать один и тот же текст раз 5-6 подряд, то результаты будут отличаться и по процентам и по фразам. особенно это касается текстов "распространенной" тематики. например про "окна пвх" или там "туры в египет".

                
DELETED
За  0  /  Против  0
DELETED  написал  02.11.2009 в 14:25  в ответ на #30
Программа демонстрирует какие именно совпадения найдены по каждому адресу (коричневым цветом).и всего совпадений - желтым цветом. нажмите, проверьте.

                
DELETED
За  0  /  Против  0
DELETED  написал  20.10.2009 в 10:13
присоединюсь. Причину необходимости описал Shadomi

                
DELETED
За  0  /  Против  0
DELETED  написал  31.10.2009 в 20:23
Очень нужно, тему поднимал давно.

Создал из своих текстов (основаны на заметках прошлых лет), попали под фильтр. 1 попал в бан из-за неуникальности, о чем и сообщает поддержка Яндекса. Теперь представьте каково проверять 6 раз один сайт старым плагиатусом, вводя в плагиутус урл каждой из 100 страниц, и каждый раз отыскивая совпадения, фрагменты ( пользовался прошлой версией плагиатуса).

Очень удобно было бы, если бы прост оисключали сайт из поиска и проверли все тексты. .Иногда и заказчику хочется знать степень совпадения со всеми статьями сайта.

А уникальность основана не только на поледовательности слов! Тут значителньую роль играет костяк. Если кто-то занимается рерайтом. то из 3 сайтов можно получить: 3 оригинальных - уник 100%, 3 - уник 75%, 3 уник 50%, далее. несмотря на уникальные четверословия в тексте сохранится костяк оригинала. придется переставлять абзацы.

                
Отправка жалобы...
Спасибо, ваша жалоба принята
Вы уже жаловались
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено.
Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186
Жаловаться можно только на чужой комментарий
Избранное
Добавить в избранное
Имя
URL
https://advego.com/blog/read/plagiatus/39315/?l=3&n=9&o=0