Перейти к публикации
  • Сейчас на странице   Всего пользователей: 1   (0 пользователей, 1 гость)

badmad

Че думаете за AI

Рекомендованные сообщения

У меня знакомый завхозом в школе работает, там пару уборщиков нужно, могу тебя устроить


 

Скрытый текст

Поделиться сообщением


Ссылка на сообщение

ИИ сходит с ума при обучении на своих же данных

Исследователи из Стэндфордского университета обнаружили потолок возможностей у генеративных моделей искусственного интеллекта, таких как ChatGPT или Midjourney. Оказалось, что они деградируют при многократном обучении на данных, сгенерированных самим же ИИ.

as6yz0F0ctkhbEkh5z1ARz2r8bgz0HyK.jpg

В ходе исследования учёные вывели аббревиатуру MAD (Model Autophagy Disorder). Как следует из названия, модель «поедает сама себя». ИИ теряет информацию о «хвостах» (крайних точках) исходного распределения данных и начинает выводить результаты, которые больше соответствуют среднему представлению. Согласно результатам, требуется около пяти итераций, пока «хвосты» исходного распределения не исчезнут совсем. Изображение выше показывает наглядный результат подобных экспериментов.

Выходит, что нельзя неограниченно получать генеративные данные, обучив модель один раз и далее основываясь на её же собственных результатах. Ещё одним важным моментом является проблема происхождения данных: теперь становится ещё важнее иметь возможность отделить «исходные» данные от «искусственных». Если нельзя определить, какая информация была создана нейросетью, есть риск случайно включить её в обучающие данные для своего продукта.

Впрочем, поезд уже ушёл. Существует огромное количество немаркированных данных, которые уже были созданы этими типами сетей и включены в другие системы

as6yujHdquKDmi9OHz2tIADAwLOVZCP.jpg

:omegalul:

3Dfx_Swamper понравилось это

Я родился в провинции Лангедок в 1668 году. Мой род, хоть ныне и обедневший, принадлежит к одним из самых славных и древних семейств королевства. Мой отец, граф де Бриссак, сражался в Голландии в полку господина Лаваля, был ранен копьем при осаде Монферрата, на стенах которого он первым водрузил королевское знамя. До 17 лет я жил в родовом замке, где благодаря заботам моей матушки баронессы де Монжу был прилично воспитан и получил изрядное образование. Ныне, расставшись со своими дорогими родителями, дабы послужить отечеству на поле брани, прошу зачислить меня в роту чёрных гвардейцев его Величества.

Поделиться сообщением


Ссылка на сообщение

Это же еще в начале XX века была идея создать компьютер, скормить ему какие-то базовые вещи, аксиомы, и чтобы он дальше сам из них вычислил абсолютно все. Уже тогда поняли, что не получится. 

Поделиться сообщением


Ссылка на сообщение

ну тада выходит что современный ИИ ничем от копирайтера не отличается и без человека ,который создаёт, это пустышка


Я родился в провинции Лангедок в 1668 году. Мой род, хоть ныне и обедневший, принадлежит к одним из самых славных и древних семейств королевства. Мой отец, граф де Бриссак, сражался в Голландии в полку господина Лаваля, был ранен копьем при осаде Монферрата, на стенах которого он первым водрузил королевское знамя. До 17 лет я жил в родовом замке, где благодаря заботам моей матушки баронессы де Монжу был прилично воспитан и получил изрядное образование. Ныне, расставшись со своими дорогими родителями, дабы послужить отечеству на поле брани, прошу зачислить меня в роту чёрных гвардейцев его Величества.

Поделиться сообщением


Ссылка на сообщение
akaBeaver said 3 hours ago:

ИИ сходит с ума при обучении на своих же данных

Исследователи из Стэндфордского университета обнаружили потолок возможностей у генеративных моделей искусственного интеллекта, таких как ChatGPT или Midjourney. Оказалось, что они деградируют при многократном обучении на данных, сгенерированных самим же ИИ.

as6yz0F0ctkhbEkh5z1ARz2r8bgz0HyK.jpg

В ходе исследования учёные вывели аббревиатуру MAD (Model Autophagy Disorder). Как следует из названия, модель «поедает сама себя». ИИ теряет информацию о «хвостах» (крайних точках) исходного распределения данных и начинает выводить результаты, которые больше соответствуют среднему представлению. Согласно результатам, требуется около пяти итераций, пока «хвосты» исходного распределения не исчезнут совсем. Изображение выше показывает наглядный результат подобных экспериментов.

Выходит, что нельзя неограниченно получать генеративные данные, обучив модель один раз и далее основываясь на её же собственных результатах. Ещё одним важным моментом является проблема происхождения данных: теперь становится ещё важнее иметь возможность отделить «исходные» данные от «искусственных». Если нельзя определить, какая информация была создана нейросетью, есть риск случайно включить её в обучающие данные для своего продукта.

Впрочем, поезд уже ушёл. Существует огромное количество немаркированных данных, которые уже были созданы этими типами сетей и включены в другие системы

as6yujHdquKDmi9OHz2tIADAwLOVZCP.jpg

:omegalul:

AI - ncest

PLASKOGUBCITHESLAYER понравилось это

Поделиться сообщением


Ссылка на сообщение

Присоединяйтесь к обсуждению

Вы можете опубликовать сообщение сейчас, а зарегистрироваться позже. Если у вас есть аккаунт, войдите в него для написания от своего имени.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Восстановить форматирование

  Разрешено не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.

Загрузка...

×
×
  • Создать...