Флейм
GameDev.ru / Флейм / Форум / искусственный интеллект , какие перспективы ? (30 стр)

искусственный интеллект , какие перспективы ? (30 стр)

Поделиться

Страницы: 1 2 3 4 ... 16 ... 29 30 31 32 Следующая

itmanager85Постоялецwww21 сен. 20171:04#435
Dexus
> В математическом смысле искусственная нейросеть это по сути группа огромных
> многочленов с кучей переменных.
> А пресловутое "обучение" - это алгоритм перебора коэффициентов этих многочленов
> для достижения желаемых ответов (т.е. подгонка).
> А глубокая нейросеть - это просто состыковка нескольких таких вот групп
> многочленов, что результат одной идёт как переменные для следующей.
> А обучение этой глубокой нейросети - это алгоритм подгонки этих коэффициентов
> для достижения _финального_ результата.
>
> Да, аппроксимируют.
аххаха, но точно не через подбор коэффициентов многочленов .. :D

Правка: 21 сен. 2017 1:10

DanielSkyПостоялецwww21 сен. 20171:26#436
itmanager85
> но точно не через подбор коэффициентов многочленовП
Теоретически подбор тоже допустим, не в этом суть.

Правка: 21 сен. 2017 1:29

itmanager85Постоялецwww21 сен. 20171:34#437
DanielSky
> Местами подбор тоже возможен, в зависимости от типа.
подбор (с использованием нейросети) может и возможен (хотя я особо и не слышал о таком) - но это всяко не суть (строения) нейросети ..

аппроксимировать жирафов через подбор коэффициентов многочленов - это как то уже слишком , особенно с учётом того что перебор даже 8 символов (в пароле) и то не самая лёгкая задача для компьютера .. :D

DanielSkyПостоялецwww21 сен. 20171:50#438
itmanager85
> перебор даже 8 символов
У сетки теоретически может быть хоть один фактор. Это опять же не меняет суть.
DexusУчастникwww21 сен. 20175:59#439
itmanager85
> аххаха, но точно не через подбор коэффициентов многочленов .. :D
А что такое по-твоему "обучение"? Итерационная модификация коэффициентов в сторону уменьшения ошибки. Тот же градиентный "спуск", это по-твоему не подгонка? Да тот же численный метод поиска корня уравнения Ньютона (через касательные) - из того же разряда, только на гораздо меньшем наборе данных (и сами формулы другие, но _сути_ это не меняет). Не нравится слово "подгонка"? Сочувствую.

Просто ребята "прокачали" эти численные методы "подгонки" коэффициентов в этой огромной системе многочленов (или многомерных матричных преобразований, если угодно). И назвали это ИИ, лол.
Сейчас опять набегут апологеты, и начнут яростно топтать кнопки: "ничего ты не понимаешь Jon Snow!" и приводить цитаты из википедии, с цитатами каких-то ветхих советских определений. И приводить в пример "Интеллектуальные системы", "Умный дом", или "Умный утюг", да какую-нибудь "Интеллектуальную отвертку". Успокойтесь.

Правка: 21 сен. 2017 7:53

thevladПостоялецwww21 сен. 201714:08#440
Dexus
> Да, аппроксимируют. Так machine learning и работает, подгоняя "нелинейный
> преобразователь", чтобы он из входных данных давал желаемый результат.
> > это вполне математическое понятие,
почитай уже что такое overfitting, если бы они просто подгоняли, то это была бы curve fitting/интерполяция, методы которой придумали 40 лет назад
методы классического machine learning находят наиболее "оптимальную" апркоксимацию входной плотности вероятности для заданной выборки, и это ни разу не "подгонка"

>Сказал А говори и Б. Само понятие, где оно вводится, где используется.
то есть книжки ты даже не листал, о чем я тебе сразу сказал )
https://www.autonlab.org/_media/tutorials/vcdim08.pdf
https://en.wikipedia.org/wiki/VC_dimension

Правка: 21 сен. 2017 14:14

DexusУчастникwww21 сен. 201714:15#441
thevlad
> и это ни разу не "подгонка"
А что это такое?
Подгонка, осуществляемая в статистическом пространстве не перестаёт быть подгонкой. Просто это более сложная подгонка.
> то есть книжки ты даже не листал, о чем я тебе сразу сказал )
Непонятно чему ты улыбаешься, ведь ссылки ты кинул на какую-то херню, не имеющую отношения к общей математической теории. Давай отсылку к  математическому справочнику, коли ляпнул что "генерализации" -это математический термин. Именно на русском. И хватит увиливать и извиваться.

Правка: 21 сен. 2017 14:21

thevladПостоялецwww21 сен. 201714:22#442
Dexus
> Подгонка, осуществляемая в статистическом пространстве не перестаёт быть
> подгонкой. Просто это более сложная подгонка.
ты вобще понимаешь как статистические модели строятся в классическом машинном обучении? )
есть выборка, она делится на обучающую часть и тестовую. алгоритм оптимизируется и видит только обучающуюся часть. когда он обучился, его просят предсказать результат на тестовой.
если произошла подгонка - overfitting, то он показывает выскоий результат на части данных на которых он обучался, и низкий на тестовой.
если же алгоритм хорошо находит закономерности в данных, то он показывает хороший результат как на обучюащейся выборке так и на тестовой.
генерализующая способность алгоритма напрямую связана с теорией VC-dimensions
https://www.autonlab.org/_media/tutorials/vcdim08.pdf
https://en.wikipedia.org/wiki/VC_dimension

а то что ты говоришь, это просто ерунда какая-то )

DexusУчастникwww21 сен. 201714:26#443
thevlad
Зачем ты дважды одно и то же запостил. Я прекрасно и с первого сообщения увидел что ты не имеешь понятия каким образом всунуть "генерализацию" в мат.теорию (при том что определения-то и нет), чтобы не трогать "машинное обучение" со всякими выборками. Для начала найди в справочнике по математике раздел "машинного обучения", копипастер.
Доказывать А через А - это конечно круто.
То что в машинном обучении используются математические инструменты не значит, что математика причастна к этим мат.статистическим упражнениям. Математика много где используется. И ещё раз - русскоязычное определение "генерализации" из математического справочника в студию.
Что ваш брат подразумевает под генерализацией я знаю. И я об этом кучу сообщений назад написал. Что это просто •"свойство"• нейросетей. И ничего "такого" в нём нет. Как нет ничего такого и в том, что сплайн-аппроксимированная функция умудряется выдавать более-менее правильные ответы и между "ключевыми"(выученными) точками и немного даже за пределами. Эка невидаль.

Правка: 21 сен. 2017 15:13

thevladПостоялецwww21 сен. 201718:07#444
Dexus
> Я прекрасно и с первого сообщения увидел что ты не имеешь понятия каким образом
> всунуть "генерализацию" в мат.теорию (при том что определения-то и нет), чтобы
> не трогать "машинное обучение" со всякими выборками.
понятно, ты так и не врубился почему K-NN паршивый алгоритм, и опять мне рассказываешь про сплайны, которые подходят только для интерполяции.
вся фишка алгоритмов машинного обучения, что они построены для эффективной генерализации и нахождения корреляций в данных. если бы этого не было то все бы тупо использовали многомерные сплайны и не парились, еще лет 40 назад )
генерализация CNN это вобще магия, она существует, и никто пока окончательно не понимает почему это происходит, а тут диванный эксперт, которому "все понятно"

> И ещё раз - русскоязычное определение "генерализации" из математического справочника в студию.
сходи по ссылкам про VC-dimensions и почитай, а не неси чушь. чем тебя эта математика не устроила? )

PS: а копипастил я тебе лишь по одной причине - ты откровенно не врубаешся в то о чем тебе говорят )

Правка: 21 сен. 2017 18:17

DexusУчастникwww21 сен. 201718:42#445
thevlad
> генерализация CNN это вобще магия, она существует, и никто пока окончательно не понимает почему это происходит,
Ну вот что и требовалось. Не сумевший понять математику копипастер кода и юзатель "магических" либ. Впринципе, больше ничего и не надо было писать.

> если бы этого не было то все бы тупо использовали многомерные сплайны и не парились, еще лет 40 назад )
А ты пробовал аппроксимировать многомерные данные (облака) многомерными поверхностями? Всё твоё "чудо" в том что это происходит автоматически, благодаря усредняющим мат.статистическим "алгоритмам". Вручную подгонять сотни тысяч и миллионы коэффициентов - можно рехнуться. А вас только и хватает на юзание "либ", называя это всё "магией".

Правка: 21 сен. 2017 18:55

thevladПостоялецwww21 сен. 201718:43#446
Dexus
> Ну вот что и требовалось. Не сумевший понять математику копипастер кода и
> юзатнль "магических" либ. Впринципе, больше ничего и не надо было писать.
окей, пока диванный фантазер )
arkkanclerПостоялецwww24 сен. 20170:55#447
Мой ИИ (не на нейросетях).
Изображение
*Lain*Забаненwww24 сен. 20173:33#448
arkkancler
Йода: «И, как всегда, двое их. Не больше и не меньше. Учитель и ученик»
Винду: «Но кто же был повержен? Учитель? Или ученик?»

Сегодня воистину ученик разговаривает не хуже своего учителя.
star123Постоялецwww30 сен. 20175:24#449
Почему искусственный интеллект обделён чувством юмора
https://geektimes.ru/post/293459/
Пока что роботы способны лишь на написание шуток, пригодных для размещения на товарах народного потребления. Но в ближайшее время до Дэйва Шапелла им не дойти.

Страницы: 1 2 3 4 ... 16 ... 29 30 31 32 Следующая

/ Форум / Флейм / Наука

2001—2017 © GameDev.ru — Разработка игр