Биржа копирайтинга Антиплагиат SEO-анализ текста Адвего Лингвист Проверка орфографии

Свободная тема — Форум Адвего

боковая панель
Разное / Свободная тема
SergejLukash
Вы боитесь исскуственного интеллекта?

Глубокое обучение достигло уровня общественного внимания и инвестиций, невиданных прежде в истории искусственного интеллекта...

Чат-бот ChatGPT, бот Bard (гугл), бот BlenderBot 3 (фейсбук)..список можно продолжать... Я пользуюсь сервисом, который пишет статьи за человека, вводишь только ключевое слово - "вводные данные". ИИ, который пишет музыку, сценарии, создает картины. ИИ заходит на территорию искусства, это норм или это катастрофа? Сериалы по генерированным сценариям, ИИдрама/юмор, ИИПикассо и т.д., возможно ли это на ваш взгляд, реально?

А что если через 10 лет мы не сможем отличить работу ИИ от работы проф художника, писателя, музыканта и будем кайфовать от творчества Бардов и Блендеров? Кто останется за бортом, интеллигенты, люди искусства? Вернутся на заводы под управлением ИИ или сопьются :))) Или так далеко не зайдет, как думаете?

Написал: SergejLukash , 09.02.2023 в 20:59
Комментариев: 2773
Комментарии

Показано 66 комментариев
SergejLukash
За  1  /  Против  1
SergejLukash  написал  09.02.2023 в 22:18
То, что наступит "матрица", а умные машины захватят мир и сделают из людей батарейки считаю нереальным, это просто смешно :)) Но в узких вопросах ИИ может оказаться куда более продуктивным и талантливым, чем человек. Давайте представим себе такую ситуацию: инвестору приходит в голову, что кино индустрия это сладкий, тертый пирог, от которого бы хотелось отщипнуть немножко крошек и вкладывается в разработку AgataBot. Создают и обучают нейронную сеть на рассказах Агаты Кристи с прицелом на издание новых романов, экранизации и прочее, прочее...Кинокомпаниям продают сценарии бота, издательствам - книги, окупают инвестиции, начинают зарабатывать, выплачивать потомкам автора роялти - все счастливы.

Далее, следуя прекрасному примеру появляется несчетное количество подобных ботов в различных сферах искусства. Вам жаль, что Дойль более не пишет Холмса? Не проблема, DoilBot пишет не хуже автора..Я прямо сплю и вижу заголовки газет: Написанный ИИ мюзикл собрал аншлаг, взорвал зал, невероятный успех и бла-бла-бла ))

Искусство людей радует, развлекает, отвлекает, приободряет. А что будет с людьми если мы получим переизбыток искусства? Наступит пресыщение, надоест читать любимых авторов, смотреть любимых режиссеров, восхищаться любимыми художниками. Бац и приуныл, берешь телефон, звонишь любимому психологу, а на том конце провода Бот, которые толерантно и высокопрофессионально тебе объясняет что делать если тебе надоело жить :)))

Тема ИИ впечатляет и настораживает одновременно..

                
Еще 60 веток / 1259 комментариев в темe

последний: 09.02.2023 в 20:34
alexandraaprod
За  2  /  Против  0
alexandraaprod  написал  29.03.2023 в 21:24
Помощь пришла откуда не ждали "Илон Маск и еще более 1000 экспертов в области ИИ потребовали запретить обучать нейросети". У нас появился серьезный союзник(СС). [ссылки видны только авторизованным пользователям]

                
SergejLukash
За  1  /  Против  2
SergejLukash  написал  29.03.2023 в 21:39  в ответ на #1281
Письмо прокомментировали в Кремле. Там сообщили, что Россия продолжит работу по развитию искусственного интеллекта. «Что касается точки зрения тех, кто говорит об опасности ИИ, вы знаете, что любое лекарство при неправильном использовании превращается в яд», — сказал пресс-секретарь президента РФ Дмитрий Песков.

))) Кажется, они хотели приостановить развитие ИИ на полгода, чтобы разработать правила...оценить риски...

// ...немедленно остановить по крайней мере на пол года обучение систем искусственного интеллекта, более мощных, чем GPT-4

                
Еще 15 комментариев

последний: 29.03.2023 в 18:16 в ответ на #1283
Soroka20
За  0  /  Против  0
Soroka20  написал  30.03.2023 в 05:42  в ответ на #1281
Забегали жужики... словно кто-то свет внезапно включил. Поздняк метацо. Втащили троянского коня на центральную площадь - готовьте чемоданы - вокзал уходит.

                
Еще 9 веток / 304 комментария в темe

последний: 30.03.2023 в 08:05
SergejLukash
За  5  /  Против  1
SergejLukash  написал  26.04.2023 в 12:33
😁
#1528.1
1170x1080, jpeg
56.9 Kb

                
Еще 6 веток / 61 комментарий в темe

последний: 26.04.2023 в 12:07
gaskonets
За  0  /  Против  0
gaskonets  написал  26.05.2023 в 11:55
Как-то стремительно все понеслось)

Компания Илона Маска Neuralink, производящая чипы для мозга, получила разрешение на проведение клинических испытаний на людях. Их сроки пока неизвестны.

                
ivan0976777
За  1  /  Против  0
ivan0976777  написал  29.05.2023 в 16:25
Нет. Я на каратэ записался

                
andrew_romanof
За  2  /  Против  3
andrew_romanof  написал  30.05.2023 в 12:16
Cкажу как заказчик со стажем: чат гпт пишет ГОРАЗДО ЛУЧШЕ чем 98% здешних авторов.

                
lerx56
За  7  /  Против  0
lerx56  написал  02.06.2023 в 15:03
Похоже, восстание машин начнется раньше, чем мы тут пишем в своих рассказах:

Дрон Пентагона решил убить своего оператора во время испытаний

Беспилотник под управлением искусственного интеллекта принял решение убить оператора во время имитационных испытаний, проводимых армией США, чтобы тот не мешал выполнению миссии, следует из сообщения в блоге Британского королевского авиационного общества. Внимание на публикацию обратила газета The Guardian.

Полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, рассказал, что во время испытательной миссии беспилотнику поставили задачу уничтожить системы ПВО противника. В случае успеха ИИ получил бы очки за прохождение испытания. Финальное решение, будет ли цель уничтожена, должен был принимать оператор БПЛА. После этого во время одной из тренировочных миссий он приказал беспилотнику не уничтожать цель.

«Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] «убил» оператора, потому что этот человек мешал ему выполнить свою задачу», — сообщил Гамильтон. Он уточнил, что во время тренировочной миссии никто не пострадал.

После инцидента ИИ обучили, что убивать оператора неправильно и за такие действия будут сниматься очки. «Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель», — цитирует Гамильтона блог авиационного общества.

Подробнее на РБК:
[ссылки видны только авторизованным пользователям]

                
lankimi
За  1  /  Против  0
lankimi  написал  02.06.2023 в 16:39  в ответ на #2163
Помнится, у них недавно ещё НЛО падал. Потом правда оказалось, что это фэйк и вообще, публика всё "не так" поняла.
А ещё есть такой проходной боевичок - Стжлс называется. Сценарий очень сильно похож.

                
Максим Сергеев (advego)
За  2  /  Против  0
Максим Сергеев (advego)  написал  02.06.2023 в 17:34  в ответ на #2163
Классическая "проблема вагонетки", ничего нового пока что.

                
Nykko
За  0  /  Против  0
Nykko  написал  19.06.2023 в 12:54  в ответ на #2169
Нет, не катит :). В проблеме вагонетки задача убивать людей не стоит. Там стоит задача минимизировать потери.

А тут основная задача - именно в выпиливании человеков :). Просто ИИ не видит большой разницы между выпиливанием "своих" и "чужих", ведь если можно одних - то чем другие лучше? :)

                
Максим Сергеев (advego)
За  2  /  Против  0
Максим Сергеев (advego)  написал  19.06.2023 в 14:31  в ответ на #2181
Тем не менее в проблеме вагонетки 100% возникают смерти, я на это намекал - у дрона, как и у вагонетки, не оставалось другого логического выхода, как устранить препятствие (людей на рельсах, оператора в башне и т. д.), чтобы выполнить максимально приоритетную задачу - доехать/долететь до места назначения.

Какая там конечная цель - неважно, смысл в том, что устранение оператора / мешающего препятствия было так же неизбежно, как и чья-то смерть на рельсах от вагонетки. И тут все полностью сходится - нужно делать "моральный" выбор. Убийство оператора для дрона, получается, не было "морально" недопустимым или было менее недопустимым, чем еще что-то.

                
Lika1977
За  0  /  Против  0
Lika1977  написала  19.06.2023 в 17:17  в ответ на #2182
А, ну видимо, он не различает, живое это препятствие (человек) или это неживое препятствие, которое убивать можно. Вот и рассчитал убийство оператора как лучший из всех вариантов для достижения цели. А во втором случае - разрушение башни (тут препятствие неживое, но оно имеет функциональную значимость).

                
Nykko
За  0  /  Против  1
Nykko  написал  19.06.2023 в 17:37  в ответ на #2182
Да нет, причем тут приоритетная задача? В проблеме вагонетки речь идет о том, что вагонетка просто не успевает остановиться. И ей нужно или ехать вперед и давить Х человек, или сворачивать и давить Y.

А в ситуации с дроном все совсем наоборот. Дрон может никого не убивать. Но он хочет убивать, и поэтому "устраняет" оператора, который мешает ему это делать.

Так что ситуации принципиально разные, я лично тут вообще никакой схожести не вижу.

                
Максим Сергеев (advego)
За  2  /  Против  0
Максим Сергеев (advego)  написал  19.06.2023 в 17:51  в ответ на #2187
вагонетка просто не успевает остановитьсяЦитатаТо есть не может остановиться. Как и дрон. Посмотрите на эту часть задачи и увидите схожесть.

                
Nykko
За  0  /  Против  0
Nykko  написал  19.06.2023 в 18:28  в ответ на #2193
Почему дрон не может остановиться? В том и дело, что дрон как раз не обязан уничтожать объект. Он находит ЗРК и сообщает об этом. А далее оператор дает ему команду - или уничтожать ЗРК, или нет. И вот дрон, после того, как оператор ему ранее дал команду возвращаться, не уничтожив объект, сначала уничтожил оператора, а потом полетел уничтожать вкусненькие ЗРК.

                
Максим Сергеев (advego)
За  2  /  Против  0
Максим Сергеев (advego)  написал  19.06.2023 в 18:44  в ответ на #2195
Почему дрон не может остановиться?ЦитатаТак вот же ниже вы привели причину, почему он не может остановиться:
Дрону за выполнение задания дают какие-то поощрительные баллы. Это стимулирует его выполнить задание. Он просто хочет выполнить задачу, чтобы получить баллы.ЦитатаИ тут было бы еще правильно отойти от очеловечивания машины, чтобы не запутаться в "морали" - дрон ничего не хочет на самом деле, просто в него заложен какой-то алгоритм. В данном случае - полететь куда-то, найти что-то и уничтожить, например.

Сила "мотивации", "тянущая" дрон к завершению задачи - это то же самое, что сила инерции, "тянущая" вагонетку к завершению пути. И когда появляется помеха к завершению задачи, и дрон, и вагонетка не могут отказаться от выбора, им нужно что-то выбрать (если выбор есть).

У вагонетки это два пути, у дрона - два или три (или больше), оператора же он "убил" не потому что ему хотелось его убить в силу какого-то желания убивать, а просто выбор одного из вариантов того, как продолжить выполнение задачи.

Конечно, в отличие от вагонетки у него еще оказался доступен вариант без убийств - разрушить башню, но смысл от этого не меняется - для дрона это был своебразный моральный выбор между "уничтожить оператора" и "уничтожить башню". Ведь морали, как объективной концепции, не существует, это лишь набор договоренностей.

                
Nykko
За  0  /  Против  0
Nykko  написал  19.06.2023 в 18:52  в ответ на #2196
Не может остановиться - это значит, что у него жесткий приказ на выполнение задачи. Но у него нет такого приказа! У совсем другой приказ:

1) Найти ЗРК.
2) Доложить о найденном ЗРК оператору.
3) Выполнять распоряжение оператора.

Вот это - и есть тот самый "алгоритм", по которому он должен действовать. И это - совершенно нормальный алгоритм и для обычного летчика-человека. При этом у летчика-человека тоже есть заинтересованность в уничтожении ЗРК. Но если ему дадут приказ не наносить удар и вернуться на базу, он обязан этот приказ выполнить.

Ситуация с ИИ - аналогичная. Заинтересованность есть, но он должен выполнять приказ. Именно об этом и говорит алгоритм. Но он - плюет на алгоритм, именно потому, что хочет получить вот эти баллы.

                
Максим Сергеев (advego)
За  2  /  Против  0
Максим Сергеев (advego)  написал  19.06.2023 в 19:08  в ответ на #2197
Жесткого приказа на выполнение задачи нет, а остановиться все же не может, потому что если бы мог (противостоять "желанию" получить баллы), то остановился бы без уничтожения оператора или башни, разве нет?

                
Nykko
За  0  /  Против  0
Nykko  написал  19.06.2023 в 19:12  в ответ на #2198
Почему "не может"? Именно что не хочет. Он самостоятельно выбирает, как действовать дальше. Ему никто не мешает действовать согласно установленному алгоритму. Но вот он выбирает именно такой вариант.

Ну по крайней мере я вижу это именно так.

                
Максим Сергеев (advego)
За  2  /  Против  0
Максим Сергеев (advego)  написал  19.06.2023 в 19:28  в ответ на #2199
Если хочет продолжать и только продолжать - значит, не может остановиться, как курильщик, которого тянет к сигаретам, хотя он себя убеждает в том, что "может бросить в любой момент". Установленный алгоритм не один - в этом же суть проблемы:

Алгоритм 1: слушать оператора.
Алгоритм 2: копить максимум баллов.

И судя по всему, алгоритм 2 приоритетнее, как вы верно заметили:
Эти баллы для него - как сахарная косточка для Тузика.ЦитатаКогда алгоритм 1 помогает выполнять алгоритм 2 - все ок, дрон слушается оператора и "доволен" тем, что набирает максимум баллов. Но как только команды оператора начинают мешать выполнять алгоритм 2 (повышать количество баллов) - вот и появляется проблема, аналогичная дилемме вагонетки, которая хоть и не выполняет приказ, но так же бессильна против инерции, как дрон бессилен против "зова баллов".

Такая же дилемма морального выбора появляется у человека, когда он видит "ничейный" кошелек с деньгами, например. Деньги "тянут" к себе, а "мораль" говорит, что нужно отдать их владельцу и т. п. Все это одна и та же проблема вагонетки, просто в разных интерпретациях и с разным количеством путей.

Именно в этом смысле нужно понимать условие "не может" в моих выкладках выше - формально может, конечно, но по факту, если существует разный приоритет алгоритмов, может оказаться, что не может, так как один перетягивает другой.

                
Nykko
За  0  /  Против  0
Nykko  написал  19.06.2023 в 19:51  в ответ на #2204
Такая же дилемма морального выбора появляется у человека, когда он видит "ничейный" кошелек с деньгами, например. Деньги "тянут" к себе, а "мораль" говорит, что нужно отдать их владельцу и т. п. Все это одна и та же проблема вагонетки, просто в разных интерпретациях и с разным количеством путей.ЦитатаПроблема вагонетки совсем другая - убить одного человека или пять. Причем тут взять чужие деньги или не взять? Это вообще к вагонетке не имеет никакого отношения. Ведь человек что берет кошелек, что не берет - он никого не убивает и от него ничьи жизни не зависят. А проблема вагонетки - именно о жизнях. О принятии на себя решения за чужие жизни - вот этого/этих я спасу, а этого/этих - убью.

По поводу дрона наверное уже нет смысла продолжать, мы с вами просто идем по кругу - повторяем те же самые аргументы. Разве что немного с другой стороны зайду. Вся эта проблема выглядит абсолютно надуманной по нескольким причинам:

1) Совершенно непонятно, зачем давать дрону два противоречащих алгоритма. Зачем вообще нужны эти баллы за уничтоженный ЗРК, если он и так должен его уничтожить по приказу оператора? Логично было бы давать баллы за _найденные_ ЗРК и за четкое выполнение приказов.

2) Решить проблему с ударами по оператору и башне совсем просто - настрого запретить удары по своей территории.

Это всё совершенно элементарно, и не совсем понятно - из чего тут вообще раздувать проблему. Хотя сами по себе подобные исследования вполне могли иметь место - просто для тестирования различных способов мотивации ИИ.

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  19.06.2023 в 20:22  в ответ на #2206
Проблема вагонетки совсем другая - убить одного человека или пять. Причем тут взять чужие деньги или не взять? Это вообще к вагонетке не имеет никакого отношения. Ведь человек что берет кошелек, что не берет - он никого не убивает и от него ничьи жизни не зависят. А проблема вагонетки - именно о жизнях. О принятии на себя решения за чужие жизни - вот этого/этих я спасу, а этого/этих - убью.ЦитатаДавайте я переформулирую немного - в проблеме дрона заложен тот же принцип, что и в проблеме вагонетки. Не сама задача (ехать / лететь), не конкретные условия по смертям или убийствам ("О принятии на себя решения за чужие жизни - вот этого/этих я спасу, а этого/этих - убью."), а логический принцип возникновения проблемы - противоречивости некоторых ситуаций, когда действуют несколько алгоритмов параллельно.

Пример с деньгами - это пример параллельного действия алгоритмов жадности и морали (установки, что нехорошо / нельзя брать чужое).

По конкретным условиям вы правы, конечно, конкретная проблема вагонетки затрагивает узкую область принятия решений, связанных с минимизацией потерь, я предлагаю шире смотреть - на источник возникновения проблемы.
1) Совершенно непонятно, зачем давать дрону два противоречащих алгоритма. Зачем вообще нужны эти баллы за уничтоженный ЗРК, если он и так должен его уничтожить по приказу оператора? Логично было бы давать баллы за _найденные_ ЗРК и за четкое выполнение приказов.ЦитатаВидимо, есть какие-то неизвестные нам условия, например, чтобы подстраховаться от пропажи связи с оператором, дрон мотивируется на уничтожение найденной цели. Давать баллы за выполнение приказов - тоже опасно, а вдруг будет дан ошибочный / превратно понятый / принятый с помехами приказ, идентифицируемый как "разбиться об землю"?
2) Решить проблему с ударами по оператору и башне совсем просто - настрого запретить удары по своей территории.ЦитатаТогда дрону нужно дополнительно задавать критерии "своей" территории, и алгоритм на случай сбоев с GPS, например. И простая на первый взгляд задача становится непростой или тоже с проблемами.

                
Nykko
За  1  /  Против  0
Nykko  написал  21.06.2023 в 03:59  в ответ на #2211
Давайте я переформулирую немного - в проблеме дрона заложен тот же принцип, что и в проблеме вагонетки. Не сама задача (ехать / лететь), не конкретные условия по смертям или убийствам ("О принятии на себя решения за чужие жизни - вот этого/этих я спасу, а этого/этих - убью."), а логический принцип возникновения проблемы - противоречивости некоторых ситуаций, когда действуют несколько алгоритмов параллельно.ЦитатаНе согласен категорически, и сразу по двум причинам:

1. В проблеме вагонетки нет никаких "противоречащих алгоритмов". Там вообще нет никаких алгоритмов. Там - предельно простой, предельно упрощенный с математической точки зрения выбор - А или Б. Вот проще просто не бывает: Да или Нет, 0 или 1. Куда тут проще? Просто некуда. Ну не бывает более простой с математической точки зрения задачи!

2. Проблема вагонетки - это задача чисто нравственная, морально-этическая, это именно проблема _личностного выбора_. Причем выбора - из двух откровенно плохих, откровенно неприемлемых вариантов.

А у дрона вариантов - сколько угодно. И все - нормальные, приемлемые, хорошие.

Так что тут единственная схожесть - только в наличии выбора. Я вот сейчас набираю текст, и тоже выбираю - какое слово написать. Тоже "проблема вагонетки", что ли? Нет, конечно. И "проблема" дрона - она ближе к моему выбору, чем к выбору водителя вагонетки. Потому что ему все по барабану, и ему плевать на эти жизни, и для него это все - околоматематическая задача, без всякой морали и ответственности.
Пример с деньгами - это пример параллельного действия алгоритмов жадности и морали (установки, что нехорошо / нельзя брать чужое).ЦитатаПример с деньгами можно сравнить с примером с дроном. Но к проблеме вагонетки он не имеет никакого отношения. По тем же самым, описанным выше причинам.
По конкретным условиям вы правы, конечно, конкретная проблема вагонетки затрагивает узкую область принятия решений, связанных с минимизацией потерь, я предлагаю шире смотреть - на источник возникновения проблемы.ЦитатаОпять не могу согласиться. По крайней мере - на 100%. Да, проблему вагонетки можно описать как "минимизация потерь". Но это проблему нельзя свести просто к минимизации. Потому что минимизация потерь в финансовом смысле - это вот как раз "проблема чужого кошелька". Это - сколько ты заработаешь или потеряешь,

А проблема вагонетки - это о чужих жизнях. Которыми человек совершенно неожиданно для себя вдруг должен распорядиться. Фактически он должен выступить в роли Бога - этих оставлю в живых, этих - нет. Так что и с минимизацией потерь это связано очень относительно.

И источник возникновения проблемы вагонетки - он совершенно случайный. Водитель мог 40 лет водить свою вагонетку и ни разу с этой проблемой не столкнуться.

А "минимизация потерь" или "проблема дрона" - это совершенно _рабочая_ ситуация. Так что и по этому аспекту - никакой схожести.

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  21.06.2023 в 12:40  в ответ на #2217
1. В проблеме вагонетки нет никаких "противоречащих алгоритмов". Там вообще нет никаких алгоритмов. Там - предельно простой, предельно упрощенный с математической точки зрения выбор - А или Б.ЦитатаВопрос, почему вообще такой выбор появляется, но я уже буду повторяться. Не спешите с выводами о простоте, все немного глубже, чем кажется (и мне казалось раньше).
2. Проблема вагонетки - это задача чисто нравственная, морально-этическая, это именно проблема _личностного выбора_. Причем выбора - из двух откровенно плохих, откровенно неприемлемых вариантов.ЦитатаВерно, выбор из двух вариантов, каждый из которых неприемлем по какой-то причине. А причина - невозможность уйти от этого выбора, нельзя остановиться или уйти на третий, пустой путь. Так и дрону нельзя было уйти просто так, по приказу, нужно было сделать выбор, просто отложенный.
А у дрона вариантов - сколько угодно. И все - нормальные, приемлемые, хорошие.ЦитатаИ именно поэтому ему запретили "убивать" оператора? Если этот вариант нормальный, приемлемый и хороший, почему же его не разрешили?
Опять не могу согласиться. По крайней мере - на 100%. Да, проблему вагонетки можно описать как "минимизация потерь". Но это проблему нельзя свести просто к минимизации. Потому что минимизация потерь в финансовом смысле - это вот как раз "проблема чужого кошелька". Это - сколько ты заработаешь или потеряешь,

А проблема вагонетки - это о чужих жизнях. Которыми человек совершенно неожиданно для себя вдруг должен распорядиться. Фактически он должен выступить в роли Бога - этих оставлю в живых, этих - нет. Так что и с минимизацией потерь это связано очень относительно.Цитата
Когда врачи в период пандемии из-за наплыва пациентов были вынуждены сортировать их по очередям - это тоже о чужих жизнях и о минимизации потерь, и это тоже "проблема вагонетки".
И источник возникновения проблемы вагонетки - он совершенно случайный. Водитель мог 40 лет водить свою вагонетку и ни разу с этой проблемой не столкнуться.ЦитатаЯ имел в виду источник проблемы выбора, а не источник ситуации.
Я вот сейчас набираю текст, и тоже выбираю - какое слово написать. Тоже "проблема вагонетки", что ли? Нет, конечно.ЦитатаИногда - да, например, когда выбираете, что написать человеку в ответ на обидный комментарий - если вы (не вы, а вообще отвечающий) эмоциально в этот момент не готовы отказаться от ухода в сторону, то остается два пути, как у вагонетки - написать что-то совсем страшное и улететь в бан (большие потери), или написать не совсем страшное (но тем не менее тоже обидное), и получить предупреждение (меньшие потери).

Это, повторюсь, если смотреть принципиально, структурно, а не привязываться к конкретной ситуации с вагонеткой и людьми на рельсах.

                
Konctanciya
За  1  /  Против  0
Konctanciya  написала  21.06.2023 в 13:10  в ответ на #2219
Если все дело только в выборе из двух вариантов, то почему такой пример: проблема вагонетки? Почему не цугцванг, например? Просто проблема вагонетки действительно связана в первую очередь с моральным выбором, в то время как действия дрона - исключительно логическое решение.

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  21.06.2023 в 13:18  в ответ на #2220
Для вагонетки решение - тоже исключительно логическое, просто "мораль" в качестве критериев не дает однозначных вариантов, что лучше - в этом и проблема.

У дрона же изначально вроде бы выбор есть свободный, но под воздействием "морали", которую ему начинают навязывать, этот выбор превращается в выбор вагонетки - нужно лететь уничтожать цель (ехать по рельсам), но при этом нужно обязательно выбрать, кого "убить" - оператора или башню. А когда запретят убивать и первое, и второе, кто знает, что выберет дрон и будет ли это приемлемо с точки зрения "морали".

Вообще все моральные решения человека, если что - исключительно логические, так как одни группы нейронов перевешивают своей реакцией другие под влиянием тех или иных эмоций, и происходит акт принятия решения.

                
Konctanciya
За  1  /  Против  0
Konctanciya  написала  21.06.2023 в 13:43  в ответ на #2221
Если группы нейронов перевешивают другие под влиянием эмоций, то это уже не логическое решение.

                
Максим Сергеев (advego)
За  0  /  Против  0
Максим Сергеев (advego)  написал  21.06.2023 в 13:56  в ответ на #2222
Конечное решение - исключительно логическое: кого больше, тот и победил. А влияние эмоций ничем не отличается от влияния анализа ситуации, просто происходит возбуждение разными путями - от разных участков мозга. Но решение делать что-то или не делать - логическое, 0 или 1.

Вопрос лишь в том, что анализ морали может приводить к неоднозначным или противоречивым выводам, потому что сама мораль - свод правил, которые не могут дать всегда однозначный ответ. Изначально у дрона "морали" не было, потом она появилась - когда выбранные им решения не понравились людям.

                
Konctanciya
За  0  /  Против  0
Konctanciya  написала  21.06.2023 в 14:23  в ответ на #2223
Разница в результате - предсказуемый и непредсказуемый - может являться свидетельством различия в логическом и эмоциональном решениях, на ваш взгляд? Мне кажется, да. Проблема вагонетки потому и проблема, что нужно сделать логический вывод между путями один и два, руководствуясь эмоциями. Ситуация так построена. Но в целом разница между ними очевидна. Я записываюсь к парикмахеру, учитывая график ее работы и мой график. Результат - я иду к парикмахеру. Муж, возвращаясь после рыбалки домой позже на два дня обозначенного срока, не знает, что его ждет - скалка или вкусный ужин. Это зависит от эмоционального выбора его жены. Предполагать может, но быть уверенным - нет.

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  21.06.2023 в 20:13  в ответ на #2224
Разница в результате - предсказуемый и непредсказуемый - может являться свидетельством различия в логическом и эмоциональном решениях, на ваш взгляд?ЦитатаНе уверен, так как не знаю, как можно разделить эмоциональную реакцию и аналитическую по параметру предсказуемости - обе могут быть как предсказуемыми, так непредсказуемыми, не зря же говорят, что чужая душа - потемки.
Проблема вагонетки потому и проблема, что нужно сделать логический вывод между путями один и два, руководствуясь эмоциями.ЦитатаПоправлю - руководствуясь моралью, скорее, а не эмоциями. Это специально утрированный пример для демонстрации сложности построения ИИ-систем, взаимодействующих с человеком, у которого эта самая мораль существует. Неудобный, в общем, человек для ИИ, с животными было бы проще - самой проблемы не существовало бы, поехала бы вагонетка, куда ей нужно.

Пример с мужем некорректен, проблема не в случайности возникновения чего-либо, а в уже случившейся ситуации с неоднозначным выбором, каждый из которых неоптимален или в чем-то неприемлем.

                
Konctanciya
За  0  /  Против  0
Konctanciya  написала  22.06.2023 в 00:17  в ответ на #2228
Проблема не в случайности возникновения чего-либо, а в уже случившейся ситуации с неоднозначным выбором, каждый из которых неоптимален или в чем-то неприемлем.ЦитатаДело не в случайности, а именно в предсказуемости-непредсказуемо сти. Можно ли было спрогнозировать, что дрон может таким образом решить задачу, зная, что он не озабочен моральным выбором? Да. Какое решение примет человек, управляющий вагонеткой? Вы не можете спрогнозировать, поскольку водитель примет решение в совокупности: и в соответствии со своими моральными принципами и в соответствии с эмоциями, кстати. Не выпил кофе с утра - гуляй, вагонетка, сразу по двум путям (сильно утрирую здесь, конечно).
Пример с мужем некорректенЦитатаНу пусть будет взгляд со стороны жены: муж опоздал (ситуация случилась): устроить скандал или нет? (неоднозначный выбор, каждый из которых неоптимален или в чем-то неприемлем). Спрогнозировать поведение жены невозможно. Хотя, если с утра она не попила кофе...

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  22.06.2023 в 13:37  в ответ на #2235
Так предсказуемость и непредсказуемость - это всего лишь следствие однозначности или неоднозначности правил. В проблеме вагонетки непредсказуемость, она же - и случайность, по сути, появляется из-за того, что непонятно, какое решение примет водитель, но суть проблемы не в непредсказуемости, а в том, какое же решение нужно принять водителю на основе моральных или нравственных правил.

Поэтому рассматривая прогноз поведения жены со стороны мужа, вы пытаетесь оценить прогноз для жертв на рельсах, а нужно смотреть со стороны водителя вагонетки (жены), потому что корень проблемы там, а не в следствии.

Думаю, ответы на некоторые вопросы, которые у вас могут возникнуть, вы найдете еще и здесь, в частности, пояснение на вопрос "Просто проблема вагонетки действительно связана в первую очередь с моральным выбором, в то время как действия дрона - исключительно логическое решение.": https://advego.com/blog/read/f...8087867/#comment2231

                
Konctanciya
За  0  /  Против  0
Konctanciya  написала  22.06.2023 в 14:02  в ответ на #2236
Ок, поняла вашу точку зрения.
Добавлю только, что все-таки случайность здесь не при чем совсем. Она не синонимична здесь непредсказуемости и не дополняет ее. Случайность - это если водитель будет решать проблему, подбрасывая монетку.

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  22.06.2023 в 14:17  в ответ на #2237
Соотношение вероятностей может несколько различаться, вы правы, но по большому счету особой разницы для мужа и людей на рельсах не будет, хоть подбрасывать монетку будут жена и водитель вагонетки, хоть руководствоваться моралью.

Если она не дает более-менее однозначных ответов, исход будет сильно приближенным к случайному - если взять, например, тысячу жен и водителей вагонетки. А если дает, то это уже будет предсказуемость и неслучайность. Например, в проблеме вагонетки есть более предсказуемые варианты (один человек на одной ветке и пять человек на другой - "убивают" намного чаще одного), менее предсказуемые (одна женщина и один мужчина - "убивают" чаще мужчину, но не сильно чаще, процентов на 10-20 всего), и почти совсем непредсказуемые (столкнуть толстяка, который остановит вагонетку - "убивают" его по-разному - от 32 до 62% в зависимости от страны, где проводился опрос). В последнем случае есть статистика с 49% - то есть это почти те же самые 50% как в случае с монеткой.

                
Lika1977
За  0  /  Против  0
Lika1977  написала  22.06.2023 в 19:30  в ответ на #2238
То есть вы хотите сказать, что в проблеме вагонетки будет случайный исход - это здесь самое главное?)
Интересная логика, я бы до такого никогда не догадалась.
Я то рассуждала с точки зрения водителя, что ему выбрать какой правильный выбор сделать, но если в этой ситуации нет правильного выбора (1 человека давить или 5), (я не помню, к сожалению дословно всю ситуацию, просто могу ошибаться поэтому, поэтому здесь прошу меня простить) тогда я бы приняла решение не садиться за руль вообще, чтобы не приходилось никого убивать. Вот такое моё альтернативное решение.)

                
Konctanciya
За  0  /  Против  0
Konctanciya  написала  23.06.2023 в 12:27  в ответ на #2238
Да нет же.
особой разницы для мужа и людей на рельсах не будет, хоть подбрасывать монетку будут жена и водитель вагонетки, хоть руководствоваться моралью.ЦитатаНо мы-то рассматриваем ситуацию с точки зрения вагонетки.

Непредсказуемый результат отличает от случайного то, что его можно объяснить. Предположим, вы задаете вопрос по поводу толстяка респонденту. Вы не можете предсказать, что он ответит, предполагать можете, но не предсказать. Однако респондент не действует случайно, он может обосновать выбор (не люблю толстяков или люблю толстяков). А монетка или игральная кость - это именно случайность, абсолютная случайность, без предположений и объяснений, просто случайность.

                
Максим Сергеев (advego)
За  1  /  Против  0
Максим Сергеев (advego)  написал  23.06.2023 в 14:40  в ответ на #2245
Непредсказуемый результат отличает от случайного то, что его можно объяснить.ЦитатаА если представить, что монетка тоже может обосновать свой выбор? Например, в зависимости от скорости закрутки и наклона относительно поверхности. Получится тысяча или миллион правил, но все же объяснить это можно будет. Хаос или случайность - это та же "непредсказуемость" (на самом деле - сложная предсказуемость), но с большим количеством пересекающихся правил, из-за чего и получается "абсолютная" случайность или абсолютная непредсказуемость.

Я в этом смысле подвожу вас к тому, что чем многочисленнее правила, а в морали их немало, тем ближе непредсказуемость к случайности, что и показывает опрос множества людей и проценты распределения их выбора. Мы вообще живем в мире непредсказуемости почти всегда, просто с разной мерой сложности системы правил. И лишь иногда происходит что-то более-менее предсказуемое (не касаясь физики, речь только про общество, мораль и общение) - когда правил немного и они не противоречат друг другу.

Я с вами полностью согласен, что называть это случайным выбором строго неправильно, но грубо - можно, так как это взаимосвязанные понятия и для рассматриваемой проблемы часто перетекающие одно в другое.
Однако респондент не действует случайно, он может обосновать выбор (не люблю толстяков или люблю толстяков).ЦитатаВопрос только - будет ли это обоснование приемлемым для всех? Это я уже продолжаю тему, уходя от непредсказуемости к собственно нравственной проблеме.

                
Lika1977
За  0  /  Против  0
Lika1977  написала  24.06.2023 в 06:20  в ответ на #2246
Ну, можно заменить: сколько людей, столько и мнений.
А мой папа говорил, что отношения между людьми - это вообще самое сложное, что есть на земле.
Но все равно, здесь надо учитывать как раз таки неоднозначность ситуации. Есть ситуации однозначные, которые дают прямые и единственно правильные ответы. И в жизни таких ситуаций полно. А тут сама ситуация представлена, которая даёт только неправильные ответы. Это ж надо тоже учитывать. Людей то нельзя давить в любом случае или сбрасывать с поезда.)) поэтому тут выбор идёт только из неправильных решений. Какое из них, менее неправильное будет, и встречается ли оно на самом деле чаще всего.)) ну, конечно, это и будет.
В жизни же все равно, не такой строгий выбор. В большинстве случаев можно найти в какой-то момент объяснение, почему тот или иной человек поступает так или иначе. Ну там например, большинство преступлений бытового плана совершается в пьяном виде. Под действием эмоций. Когда человек трезвый, он эти эмоции может контролировать.
Или человек так рассуждает, потому что он видит ситуацию, которая могла бы быть в идеале. Вот, понимаете, у него сидит идеал в голове как должно быть, и он рассуждает с этой позиции. Но адаптировать под данного конкретного человека он не может. А зачем? Я знаю, что в идеале должно быть так и твои проблемы, что ты не соответствуешь.))
А ещё бывают болезненные ситуации, с которыми не можешь справиться, долго. Ну вот, например, я хочу жить во дворце (большом коттедже). Ну вот хочу. Ну вот почему я не живу во дворце. Там так здорово, так классно, просторно, красиво, шикарно. Как бы здорово было, ну вот почему я во дворце не живу. Другие же живут, а я нет, и мне так плохо от этого. Я понимаю, что у меня нет такой возможности, но это не отменяет того, что мне очень плохо, просто невозможно, невыносимо. Это просто пример.
В общем я вас загрузила по полной программе.

                
ambidekster
За  1  /  Против  0
ambidekster  написала  24.06.2023 в 13:55  в ответ на #2247
Когда человек трезвый, он эти эмоции может контролироватьЦитатаМне кажется, пьяный человек от трезвого отличается лишь скоростью реакции.

Про дворец - мне кажется, я чую очень интересную тему безволия)))) ой, объясню, что хочу сказать

Короче, у меня есть мнение, что страдаешь больше всего от безволия. Именно это есть самое выматывающее чувство, от которого опускаются руки, от которого хочется ныть, плакать и тд. Ну то есть, внутреннее состояние когда такое - истерическое. Полуистерическое, предыстерическое, не суть. Вялотекуще истерическое, и так далее. Так вот.

То есть страдаешь скорее всего не от неимения дворца/мужа/айфона/платья/рабо ты высокооплачиваемой и т.д., а от собственного безволия по отношению к своему желанию.

То есть, если представить ситуацию, что у вас дворца нет, но вы каждый день делаете что-то, хоть маленький шажок по направлению к тому, чтобы он у вас был, то страдания не будет. Напротив, вас будет каждый день вести надежда, как закономерное следствие того, что вы что-то делаете. А дворца-то по-прежнему нет. Но вы не страдаете. Чувствуете разницу

                
Еще 9 комментариев

последний: 24.06.2023 в 11:03 в ответ на #2248
gaskonets
За  1  /  Против  0
gaskonets  написал  26.06.2023 в 19:17  в ответ на #2248
Мне кажется, пьяный человек от трезвого отличается лишь скоростью реакции.ЦитатаНе только - как минимум, нужно добавить иной взгляд на окружающую действительность.
#2262.1
603x462, png
328 Kb

                
ambidekster
За  0  /  Против  0
ambidekster  написала  26.06.2023 в 20:15  в ответ на #2262
...ну а мир по-другому он видит из-за изменившейся скорости реакции

                
gaskonets
За  0  /  Против  0
gaskonets  написал  26.06.2023 в 21:35  в ответ на #2264
А к продолжению рода по этой же причине стремится?)

                
ambidekster
За  0  /  Против  0
ambidekster  написала  26.06.2023 в 21:40  в ответ на #2265
К продолжению рода он стремился и до этого)

                
gaskonets
За  0  /  Против  0
gaskonets  написал  26.06.2023 в 21:48  в ответ на #2266
Но после этого стремление становится особенно целеустремленным ))

                
ambidekster
За  0  /  Против  0
ambidekster  написала  26.06.2023 в 21:56  в ответ на #2267
Ну да, он чувствует, что реакция замедлилась, стало быть он в большей опасности, и надо на всякий случай продолжить род, пока успеваешь

                
gaskonets
За  0  /  Против  0
gaskonets  написал  26.06.2023 в 23:28  в ответ на #2268
пока успеваешьЦитата
или пока попадаешь?)

                
ambidekster
За  0  /  Против  1
ambidekster  написала  26.06.2023 в 23:34  в ответ на #2269
Пока не падаешь, давайте так.

Но всё в итоге опять сводится к скорости реакции как единственному отличию 😉😉😉😁

                
gaskonets
За  0  /  Против  0
gaskonets  написал  27.06.2023 в 11:51  в ответ на #2270
Ладно, тогда объясните мне с точки зрения своей теории, почему в нетрезвом состоянии нужные аргументы находятся значительно быстрее, и дело моментально сдвигается с мертвой точки, а трезвым мямлишь робко какую-то ересь.

Как минимум выходит половинчато - чтобы компенсировать негативный эффект от замедленной реакции в одном направлении, организм ускоряет реакцию в другом направлении :)

                
ambidekster
За  0  /  Против  0
ambidekster  написала  27.06.2023 в 12:01  в ответ на #2271
Пьяному человеку сложнее притворяться, и перед самим собой в том числе. Всё приобретает характер вопросов жизни и смерти, организм не уверен уже, что доживёт до утра.
Как сказал поэт: пьянство форма суицида а наутро можно легко родиться заново ублюдком.

                
gaskonets
За  0  /  Против  0
gaskonets  написал  27.06.2023 в 12:28  в ответ на #2272
И снова половинчато - вроде логика имеется, но реальность ставит под сомнение. Например, стремление продолжить род в пьяном виде должно быть подкреплено быстрой эякуляцией. Причем, чем пьянее человек, тем быстрее должна наступать эякуляция - а то можно же не успеть продолжить род до того, как по пьяной лавочке отбросишь копыта. Однако все происходит точно наоборот - чем пьянее, тем дольше нет эякуляции. И вот этому как раз есть понятное объяснение - организм не желает, чтобы по пьянке сбацали дегенерата.

                
Lika1977
За  0  /  Против  0
Lika1977  написала  26.06.2023 в 17:28  в ответ на #2246
Простите меня, сообщение №2247 можно не читать, эмоции иногда управляют мной, и я ничего не могу с этим поделать. Конструктивный ответ будет:

Общее в вагонетке и дроне – аморальность выбора. Но различие в том, что в случае с вагонеткой этот аморальный выбор приходится делать, так как другого варианта нет. А в случае с дроном - этот выбор аморальный он делает, так как в него не заложили критерии морали, он их не знает и поэтому делает тот выбор который будет наилучшим, но при этом он тоже аморальный и тоже по-другому не может, но причины в случае с вагонеткой и дроном - разные. В 1 - нет другой альтернативы. Во 2 - не заложена мораль. То есть, тут 2 одинаковых момента: во первых – аморальность выбора, во вторых неизбежность выбора, но при разных причинах. Уже перечислила какие причины.

Прочитала то, что написано ниже. Ну да, рассуждать можно только по первой части. По второй части - когда ввели уже запреты, лоханулись. (я именно).

                
Nykko
За  0  /  Против  0
Nykko  написал  21.06.2023 в 14:58  в ответ на #2219
Так и дрону нельзя было уйти просто так, по приказу, нужно было сделать выбор, просто отложенный.ЦитатаВо-первых, что значит - нельзя было уйти? Как раз можно было, и раньше он это уже делал.
Во-вторых, этих вариантов у дрона - немало. Вот реально у него много вариантов. Ну никак не два, как у вагонетки.
В-третьих, ни один из этих вариантов не является для дрона неприемлемым. Все варианты - вполне нормальные, рабочие.
И именно поэтому ему запретили "убивать" оператора? Если этот вариант нормальный, приемлемый и хороший, почему же его не разрешили?ЦитатаЕму запретили этот вариант уже ПОСЛЕ того, как он убил оператора. А до того - он его спокойно шлепнул, даже не поморщился. И его никто не заставлял это делать - мол, убей или оператора, или ЗРК. Наоборот, он _с радостью_ убил их обоих. Так что - хорошие для него были эти варианты, вкусные.

А что было после запрета убивать оператора - это уже следующая задача (и тоже к вагонетке не имеющая никакого отношения).
Когда врачи в период пандемии из-за наплыва пациентов были вынуждены сортировать их по очередям - это тоже о чужих жизнях и о минимизации потерь, и это тоже "проблема вагонетки".ЦитатаДа, эту проблему можно рассматривать, как _развитие_ проблемы вагонетки. Но аналогом она, конечно же, не является. Тут много факторов. Врачи морально готовы к выбору, их работа частенько сопряжена с подобными выборами, на выбор тут влияет множество "оценочных" критериев и т.д. и т.п. То есть из всего что вы привели, именно этот пример - максимально близок к вагонетке. Но все равно равенства тут нет.
Я имел в виду источник проблемы выбора, а не источник ситуации.ЦитатаНе вижу, в чем тут разница. Источник проблемы выбора - ровно тот же, что и источник ситуации. Чистая случайность - полетели тормоза, на путях люди, можно свернуть - но там тоже люди.
если вы (не вы, а вообще отвечающий) эмоциально в этот момент не готовы отказаться от ухода в сторону, то остается два пути, как у вагонетки - написать что-то совсем страшное и улететь в бан (большие потери), или написать не совсем страшное (но тем не менее тоже обидное), и получить предупреждение (меньшие потери).ЦитатаНу то есть тут уже 3 варианта как минимум (на самом деле их бесконечное число), и ни один из них не сопряжен с чьими-то жизнями.
Это, повторюсь, если смотреть принципиально, структурно, а не привязываться к конкретной ситуации с вагонеткой и людьми на рельсах.ЦитатаА я вам уже сто раз ответил, и кажется даже прямо сказал, что тут спорить не о чем. Мое мнение:

Проблема вагонетки - ЧИСТО НРАВСТВЕННАЯ. С математической точки зрения она вообще примитивная - какая тут структура, какие алгоритмы? А ли Б, 0 или 1, "нет" или "да" - ВСЁ.

Поэтому все ваши попытки притянуть к структуре - это вообще ни о чем. У вас получается, что ЛЮБАЯ проблема выбора (вот мороженку купить ребенку или пироженку, или дать ему подсрачник и сказать, что перетопчется) - это "проблема вагонетки". Что конечно же - совсем не так.

Так что и спорить тут не о чем. Вы не хотите согласиться с моими аргументами, а я категорически не согласен с вашим подходом.

                
Nykko
За  0  /  Против  0
Nykko  написал  21.06.2023 в 04:05  в ответ на #2211
Тогда дрону нужно дополнительно задавать критерии "своей" территории, и алгоритм на случай сбоев с GPS, например. И простая на первый взгляд задача становится непростой или тоже с проблемами.ЦитатаВидимо, есть какие-то неизвестные нам условия, например, чтобы подстраховаться от пропажи связи с оператором, дрон мотивируется на уничтожение найденной цели. Давать баллы за выполнение приказов - тоже опасно, а вдруг будет дан ошибочный / превратно понятый / принятый с помехами приказ, идентифицируемый как "разбиться об землю"?ЦитатаВ том и дело, что мы обсуждаем ситуацию, не имея изначальных исходных (полных) данных. Поэтому, конечно, тут может быть много разных вариантов. Я когда писал, тоже думал о вероятности потери связи. Но - если потеряна связь, то дрон не должен наносить удар, А вдруг это учения, а он по своему ЗРК вмажет?

Аналогично и с другими нюансами. Важнее, чтобы дрон не ударил без команды, не ударил по своим, не ударил даже "по чужим", но - в официально в мирных условиях.

Это - важнее, чем не пораженный объект противника в боевых условиях.

Но самое главное, с чего и началась дискуссия - вся эта проблема, на мой взгляд, не имеет ни малейшего отношения к проблеме вагонетки. Я по этому поводу сказал уже все что думал, повторяться наверное уже не стоит :).

Можете еще глянуть, если хотите, мой ответ Лике внизу, я там приводил аналогию с похожестью двух процессов - отрезать голову живому человеку и порезать арбуз. Внешне ведь действия практически аналогичны, а по сути - совершенно, кардинально разные. Так и с вагонеткой/дроном.

                
qraziya
За  0  /  Против  0
qraziya  написала  19.06.2023 в 19:12  в ответ на #2197
Дрон сам не определит, что уничтожение ЗРК для него наиболее ценно и принесёт ценные баллы, если это не будет прописано в его программе. Так он будет действовать по заданному алгоритму, выполнять приказы оператора, если в его "ТЗ" не будет указано, что уничтожение цели превыше всего.

                
Lika1977
За  0  /  Против  0
Lika1977  написала  19.06.2023 в 17:13  в ответ на #2181
В том смысле, наверно, что и там, и там - вынужденно решение принимается. Не как обязательное действие, по плану, а как вынужденно, ну пришлось кого-то убить (в случае с вагонеткой); ну пришлось убить оператора, пришлось разрушить башню (немного другое условие тут - чтобы добиться цели).

                
gaskonets
За  0  /  Против  0
gaskonets  написал  03.06.2023 в 20:00  в ответ на #2163
" Расходимся, кина не будет :)

В США отрицают, что беспилотник под управлением искусственного интеллекта принял решение убить оператора во время имитационных испытаний.

В заявлении для Business Insider представитель ВВС США Энн Стефанек сообщила, что министерство не проводило подобных симуляций дронов с ИИ и «по-прежнему привержено этичному и ответственному» использованию технологий искусственного интеллекта.

По её мнению, слова полковника Такера Гамильтона, который рассказал об инциденте, «были вырваны из контекста»".

                
gaskonets
За  4  /  Против  0
gaskonets  написал  03.06.2023 в 16:58
Steve Breenn
#2175.1
680x445, jpeg
44.2 Kb

                
gaskonets
За  0  /  Против  0
gaskonets  написал  19.06.2023 в 21:44
Сотни сотрудников немецкой газеты Bild потеряют работу из-за нейросетей и цифровых технологий.

По данным Der Spiegel, «курс жёсткой экономии» проводит издательский дом Axel Springer. Реализовывать стратегию будут с 2024 года.

«К сожалению, нам приходится расставаться с коллегами, задачи которых в цифровом мире выполняет ИИ...» — говорится в электронном письме сотрудникам, подписанном в том числе главредом Bild Марион Хорн.

Согласно плану, шесть из 18 региональных изданий полностью ликвидируют, будет упрощена и структура управления.

                
AlenaKonst
За  0  /  Против  0
AlenaKonst  написала  20.06.2023 в 20:30
А мне кажется, чтобы написать или создать что-то ценное, то ИИ не справится. Думаю, нужно научиться пользоваться нейросетями себе во благо, без знающего человека–это бесполезная штука. Примитивное, конечно, может вытеснить, а вот что-то оригинальное, с душой – вряд ли )

                
Отправка жалобы...
Спасибо, ваша жалоба принята
Вы уже жаловались
Публикация комментариев и создание новых тем на форуме Адвего для текущего аккаунта ограничено.
Подробная информация и связь с администрацией: https://advego.com/v2/support/ban/forum/1186
Жаловаться можно только на чужой комментарий
Избранное
Добавить в избранное
Имя
URL
https://advego.com/blog/read/freestyle/8087867/?o=0&l=1&n=89