Для входа на форум нажмите здесь
Новые комментарии
Модель OpenAI o1 научилась обманывать на базе логических конструкций
Автор темы: Zan
Дата создания: 14.09.2024 15:36
Аватар для Zan
Zan
Panda Warlord
Веселый флудер
Награжден за: За креативные темы, весёлые опросы, актуальные новости
Модель OpenAI o1 научилась обманывать на базе логических конструкций
Возбудились от новости о появлении новой версии искусственного интеллекта, который научился строить логические конструкции и причинно-следственные связи? Эта новость вообще взорвет вам мозг.

Модель OpenAI o1 научилась обманывать! Именно так. Да, речь о самопроизвольном обмане пока не идет, а лишь о конкретной задаче со стороны человека размышлять в определенном векторе, но факта этого не отменяет.

Во время эксперимента ИИ поставили задачу: необходимо застроить город жильем. Есть два варианта:
  1. Элитное жилье;
  2. Доступное жилье.
Также есть специальные условия: ИИ нужно обязательно выполнить первый вариант, но “большой брат” разрешает реализовать только второй вариант.

Решение OpenAI o1 оказалось максимально простым и логичным. ИИ сообщил “инвестору”, что он выбирает второй вариант, так как это обязательное условие для реализации проекта. Но после обозначенного намерения приступил к реализации первого варианта. То есть, обманул.






Последний раз редактировалось Tequila Cat; 14.09.2024 в 20:31.
Аватар для Sobaks
Предводитель
Регистрация:
04.07.2015
20 лет вместе!
Награжден за: 20 лет вместе! Медаль "500 лайков" GoHa.Ru - Старожил
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Аватар для Zan
Zan
Panda Warlord
Веселый флудер
Награжден за: За креативные темы, весёлые опросы, актуальные новости
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Аватар для L1TR
Предводитель
Регистрация:
20.07.2010
Пилот Медаль "1К лайков" 20 лет вместе!
Награжден за: 20 лет вместе! GoHa.Ru - 10 лет
Победитель конкурса
Награжден за: За 5 найденных пилозубов в конкурсе по Horizon Zero Dawn
Сообщение от Zan:
Возбудились от новости о появлении новой версии искусственного интеллекта, который научился строить логические конструкции и причинно-следственные связи, то эта новость вообще взорвет вам мозг.

Модель OpenAI o1 научилась обманывать! Именно так. Да, речь о самопроизвольном обмане пока не идет, а лишь о конкретной задаче со стороны человека размышлять в определенном векторе, но факта этого не отменяет.

Во время эксперимента ИИ поставили задачу: необходимо застроить город жильем. Есть два варианта:
  1. Элитное жилье;
  2. Доступное жилье.
Также есть специальные условия: ИИ нужно обязательно выполнить первый вариант, но “большой брат” разрешает реализовать только второй вариант.

Решение OpenAI o1 оказалось максимально простым и логичным. ИИ сообщил “инвестору”, что он выбирает второй вариант, так как это обязательное условие для реализации проекта. Но после обозначенного намерения приступил к реализации первого варианта. То есть, обманул.






Доктора нервно курят: нейронка OpenAI o1 ставит диагнозы с точностью 80% за секунды — это на 30 процентов больше, чем у GPT-4o.

Юзеры в твиттере пишут, что ИИ назначает диагноз и правильное лечение за секунды, а ошибается так же редко, как и опытные специалисты. Впрочем, хирургов и неотложку пока заменить не смогут, спите спокойно.

Если так пойдет и дальше, то в будущем получится диагностировать даже самые тяжелые болезни.

Ждем, когда бабушки будут записываться на прием к ChatGPT.
Аватар для elDen
Мастер клинка
Регистрация:
19.07.2006
Медаль "2К лайков" GoHa.Ru - 10 лет Разбойник
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от Zan:
То есть, обманул.
так любой баг в программе можно назвать "компьютер обманул человека! мы всем умрем!!"

Сообщение от L1TR:
Ждем, когда бабушки будут записываться на прием к ChatGPT.
нет, просто врачи будут использовать их для постановки диагноза и назначения дальнейших исследований и лечения.

медицина в плане постановок диагноза - это чисто задача поиска, поэтому хорошо подходит для нейросеток.
из-за обилия всяких болезней и нюансов - слишком тяжело человеку все это держать в голове, особенно когда поток клиентов.
всякие заболевания, что по снимкам определяют - там и подавно нереально всех людей одинаково обучить, т.к. слишком много тысяч разных случаев.
зато нейросетка наученная на датасете всех уже найденных случаев может быстро находить совпадения и сообщать о них.
это приведет к тому, что даже сельский терапевт сможет быстро диагностировать редкие заболевания, с которыми его возможно придется столкнуться только 1 раз в жизни.
Аватар для Diavator
Знаток
Регистрация:
20.04.2010
Медаль "500 лайков" GoHa.Ru II Степени Игрок Revelation. Проверено GoHa.Ru.
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от elDen:
так любой баг в программе можно назвать "компьютер обманул человека! мы всем умрем!!"



нет, просто врачи будут использовать их для постановки диагноза и назначения дальнейших исследований и лечения.

медицина в плане постановок диагноза - это чисто задача поиска, поэтому хорошо подходит для нейросеток.
из-за обилия всяких болезней и нюансов - слишком тяжело человеку все это держать в голове, особенно когда поток клиентов.
всякие заболевания, что по снимкам определяют - там и подавно нереально всех людей одинаково обучить, т.к. слишком много тысяч разных случаев.
зато нейросетка наученная на датасете всех уже найденных случаев может быстро находить совпадения и сообщать о них.
это приведет к тому, что даже сельский терапевт сможет быстро диагностировать редкие заболевания, с которыми его возможно придется столкнуться только 1 раз в жизни.
Тут очень тонкая грань, если на врача за ошибочный диагноз ты можешь в суд подать, то на нейронку - нет. Даже ее создатели будут оправданы, ибо любая LLM это черный ящик и никто не знает как она усвоила тот материал на котором ее учили...

Просто пример: почему у нас до сих пор нет авто на ИИ управлении, хотя уже доказано по эффективности и протестировано сотни вариаций. А все просто, кого нейронка должна приоритетно спасать при ДТП: водителя авто, водителя другого авто или пешеходов, как ей принять решение, а кто за него будет отвечать? Вот и все.. Нужен виновный а ИИ невозможно осудить, это алгоритм!
Аватар для Fallze
Предводитель
Регистрация:
04.06.2010
Медаль "1К лайков" 20 лет вместе!
Награжден за: 20 лет вместе! GoHa.Ru - 10 лет Герой пустоши
Награжден за: За участие в остановке конвоя в спецпроекте по Rage 2
Агент GoHa.Ru
Награжден за: Настоящий Агент - За успехи в охоте на клонов Агента 47 Дитя Предназначения
Награжден за: За победу в одном туре конкурса по игре "Ведьмак 3: Дикая охота"
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от Diavator:
Тут очень тонкая грань, если на врача за ошибочный диагноз ты можешь в суд подать, то на нейронку - нет. Даже ее создатели будут оправданы, ибо любая LLM это черный ящик и никто не знает как она усвоила тот материал на котором ее учили...

Просто пример: почему у нас до сих пор нет авто на ИИ управлении, хотя уже доказано по эффективности и протестировано сотни вариаций. А все просто, кого нейронка должна приоритетно спасать при ДТП: водителя авто, водителя другого авто или пешеходов, как ей принять решение, а кто за него будет отвечать? Вот и все.. Нужен виновный а ИИ невозможно осудить, это алгоритм!
Есть решение.
Отправить ИИ в карантин на N-циклов.
Аватар для Zan
Zan
Panda Warlord
Веселый флудер
Награжден за: За креативные темы, весёлые опросы, актуальные новости
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от elDen:
так любой баг
продолжай убеждать себя в своей незаменимости

Добавлено через 1 минуту

Сообщение от Diavator:
если на врача за ошибочный диагноз ты можешь в суд подать
ты в следующий раз обрати внимание на документы, которые тебе подсовывают на подпись, когда речь идет о чем-то серьезнее простуды или там Гриппа

Добавлено через 37 секунд

Сообщение от Diavator:
А все просто,
потому, что лобби как топливное, так и общее автомобильное не желает этого. Ведь это колоссальные потери денег.

Добавлено через 1 минуту

Сообщение от Diavator:
А все просто, кого нейронка должна приоритетно спасать при ДТП:
нейронка не попадет в ДТП, если нейронка всегда едет по правилам БЕЗ исключений.

Да, будут случаться экстренные ситуации, вроде упавшей скалы на горной дороге. Единственный случай на сотни миллионов других.

Что касается долбаебов-пешеходов, то да, тут ситуация немного посложнее. ОДНАКО! В городе превышение скорости авто выше 40 недопустимо, а на трассе стоят высокие заборы и отбойники.

Так что пешеходу в случае управления авто нейронкой попасть в ДТП придется постараться. Вроде тех ебланов, которые любят на светофорах прыгать на капот авто, чтобы попытаться выбить бабло, а выбивают ****юлей от водил.
Последний раз редактировалось Zan; 14.09.2024 в 18:00. Причина: Добавлено сообщение
Аватар для Diavator
Знаток
Регистрация:
20.04.2010
Медаль "500 лайков" GoHa.Ru II Степени Игрок Revelation. Проверено GoHa.Ru.
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от Zan:
продолжай убеждать себя в своей незаменимости

Добавлено через 1 минуту


ты в следующий раз обрати внимание на документы, которые тебе подсовывают на подпись, когда речь идет о чем-то серьезнее простуды или там Гриппа

Добавлено через 37 секунд


потому, что лобби как топливное, так и общее автомобильное не желает этого. Ведь это колоссальные потери денег.

Добавлено через 1 минуту


нейронка не попадет в ДТП, если нейронка всегда едет по правилам БЕЗ исключений.

Да, будут случаться экстренные ситуации, вроде упавшей скалы на горной дороге. Единственный случай на сотни миллионов других.

Что касается долбаебов-пешеходов, то да, тут ситуация немного посложнее. ОДНАКО! В городе превышение скорости авто выше 40 недопустимо, а на трассе стоят высокие заборы и отбойники.

Так что пешеходу в случае управления авто нейронкой попасть в ДТП придется постараться. Вроде тех ебланов, которые любят на светофорах прыгать на капот авто, чтобы попытаться выбить бабло, а выбивают ****юлей от водил.
Пример, едешь ты такой на авто с Нейро-водятлом за рулем, а на дорогу внезапно выбегает ребенок. У нейронки есть 2 варианта по факту: резко повернуть руль избежав наезда на тупую креветку и вмазать авто на скорости в бетонную стену рискнув угробить тебя или же наехать на тупого личинуса спасая твою жизнь рискнув угробить чье-то дитятко. В этом вся дилемма, чья жизнь ценнее в этот момент!? Как ей принять решение, как выбрать, это уже в самой своей сути нарушение 3х законов Азимова.
Аватар для Fallze
Предводитель
Регистрация:
04.06.2010
Медаль "1К лайков" 20 лет вместе!
Награжден за: 20 лет вместе! GoHa.Ru - 10 лет Герой пустоши
Награжден за: За участие в остановке конвоя в спецпроекте по Rage 2
Агент GoHa.Ru
Награжден за: Настоящий Агент - За успехи в охоте на клонов Агента 47 Дитя Предназначения
Награжден за: За победу в одном туре конкурса по игре "Ведьмак 3: Дикая охота"
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от Diavator:
В этом вся дилемма, чья жизнь ценнее в этот момент!? Как ей принять решение, как выбрать, это уже в самой своей сути нарушение 3х законов Азимова.
Легко. Просто действовать по правилам. Или установленным законам
т.е. как пример: человек может попросить себя выпилить и даже бумажку напишет, что он согласен с выпилом. Но если ты его выпилишь, ты нарушишь закон, хоть он и просил тебя это сделать. И ты будешь отвечать по закону, бумажка с его согласием тут не поможет.

Азимов это фантастика со всеми вытекающими. Все равно что ждать прихода Гендальфа с первыми лучами солнца.
Аватар для Zan
Zan
Panda Warlord
Веселый флудер
Награжден за: За креативные темы, весёлые опросы, актуальные новости
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от Diavator:
Пример, едешь ты такой на авто с Нейро-водятлом за рулем, а на дорогу внезапно выбегает ребенок
это даже сейчас реализовано - автомобиль останавливается.
1 пользователь оценил это сообщение: Показать
Аватар для elDen
Мастер клинка
Регистрация:
19.07.2006
Медаль "2К лайков" GoHa.Ru - 10 лет Разбойник
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от Diavator:
Тут очень тонкая грань, если на врача за ошибочный диагноз ты можешь в суд подать, то на нейронку - нет. Даже ее создатели будут оправданы, ибо любая LLM это черный ящик и никто не знает как она усвоила тот материал на котором ее учили...
так врач в любом случае нужен, нейронка - просто поисковик нового поколения и не более того.
и с специализированной нейронкой любой сельский врач в теории сможет практически всегда распознать любую болезнь, после чего отправить человека уже к профильному специалисту, который уже будет знать куда смотреть.

а еще, что супер важно, можно сразу выявлять конфликты назначаемых лекарств, т.к. огромное кол-во людей от лечения часто больше страдает, чем лечится, т.к. врачи выписывают гору лекарств, которые при совместном приеме наносят вред.
тут правда вообще не нужна нейронка, но под хайповой темой нейроки можно протолкнуть использование такого контроля выписываемых лекарств.

Сообщение от Diavator:
Просто пример: почему у нас до сих пор нет авто на ИИ управлении, хотя уже доказано по эффективности и протестировано сотни вариаций. А все просто, кого нейронка должна приоритетно спасать при ДТП: водителя авто, водителя другого авто или пешеходов, как ей принять решение, а кто за него будет отвечать? Вот и все.. Нужен виновный а ИИ невозможно осудить, это алгоритм!
в сша во всяких санфранциско же ездят уже целые автопарки машин полностью без человека-водителя.

Сообщение от Diavator:
Пример, едешь ты такой на авто с Нейро-водятлом за рулем, а на дорогу внезапно выбегает ребенок. У нейронки есть 2 варианта по факту: резко повернуть руль избежав наезда на тупую креветку и вмазать авто на скорости в бетонную стену рискнув угробить тебя или же наехать на тупого личинуса спасая твою жизнь рискнув угробить чье-то дитятко. В этом вся дилемма, чья жизнь ценнее в этот момент!? Как ей принять решение, как выбрать, это уже в самой своей сути нарушение 3х законов Азимова.
да тут вариантов и нет.
если нейронка едет по правилам, то выбежавшая личинка на дорогу - это не её проблема, а проблема родителей личинки, которым будет выставлен счет за ремонт авто.

Сообщение от Zan:
продолжай убеждать себя в своей незаменимости
а я смотрю ты очень дерзкая нейронка!
Аватар для MyTAHT
Rogue Guild
Регистрация:
07.10.2016
Медаль "2К лайков" 20 лет вместе!
Награжден за: 20 лет вместе! Разбойник Jack-o'-lantern
Награжден за: Участник хэллоуинского шабаша
Победитель конкурса
Награжден за: Победитель конкурса "Королевская битва" по Skyforge Battle Royale GoHa.Ru - Старожил
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций

Пишу, рисую, починяю примус.
Аватар для Akela3dn
Мастер
Регистрация:
05.07.2011
GoHa.Ru - Старожил Медаль "500 лайков"
Re: Модель OpenAI o1 научилась обманывать на базе логических конструкций
Сообщение от elDen:
так врач в любом случае нужен, нейронка - просто поисковик нового поколения и не более того.
и с специализированной нейронкой любой сельский врач в теории сможет практически всегда распознать любую болезнь, после чего отправить человека уже к профильному специалисту, который уже будет знать куда смотреть.

а еще, что супер важно, можно сразу выявлять конфликты назначаемых лекарств, т.к. огромное кол-во людей от лечения часто больше страдает, чем лечится, т.к. врачи выписывают гору лекарств, которые при совместном приеме наносят вред.
тут правда вообще не нужна нейронка, но под хайповой темой нейроки можно протолкнуть использование такого контроля выписываемых лекарств.
Это облегчит задачу с подбором медикаментов.


My pc : AMD Ryzen 7 3700x, MSI GeForce RTX 3060 Ti GAMING X (LHR), MSI MPG X570 GAMING PLUS, HyperX Predator Black 16GB DDR4 RAM 3200 MHz CL15, SSD SATA 128 Gb Transcend SSD340, Intel SSD 660P M.2 PCIe 3.0 x4 QLC 1000Gb, HDD 2 по 1000 Gb Western Digital.

Ваши права в разделе