1/35
Комплексний набір флеш-карток з термінології штучного інтелекту, архітектур нейронних мереж, еволюційних обчислень та теорії нечітких множин на основі навчальних тестів.
Name | Mastery | Learn | Test | Matching | Spaced | Call with Kai |
|---|
No analytics yet
Send a link to your students to track their progress
Тест Тюрінга
Відомий метод, запропонований Аланом Тюрінгом для визначення існування штучного інтелекту.
Шари перцептрона Розенблатта
Моделюючий, асоціативний та розпізнаючий шари нейронів.
Обмеження одношарового перцептрона
Неможливість моделювання логічної функції XOR через лінійну нероздільність навчальних образів (згідно з працями Мінського і Пайперта).
Маккалок і Піттс
Автори фундаментальної статті "Логічне числення ідей, що відносяться до нервової діяльності".
Обчислювальний інтелект
Вужче поняття у порівнянні зі штучним інтелектом.
Лотфі Заде
Вчений, який запропонував поняття м'яких обчислень (SoftComputing) та принцип узагальнення для нечітких множин.
Мережа Кохонена
Тип нейронної мережі, що зазвичай використовується для задачі кластеризації.
Кластеризація
Тип задачі в області обробки даних (не є алгоритмом чи методикою за своєю суттю).
Активаційні функції
Функції, якими найчастіше виступають сигмоїда або гіперболічний тангенс.
Дельта-правило
Метод навчання, при якому відбувається коригування вагових коефіцієнтів.
Глибоке навчання (DeepLearning)
Технологія, розробка та застосування якої надали стрімкий поштовх розвитку інтелекту у 21 столітті.
Генетичне програмування
Метод еволюційного моделювання, у якому використовуються дерева виразів.
Градієнтний спуск
Традиційний метод, на якому базується підхід до навчання нейромереж.
Нечіткі нейромережі
Гібридна технологія, що поєднує нейромережі та нечітку логіку.
Алгоритм оберненого поширення похибки (Backpropagation)
Алгоритм, що базується на методі градієнтного спуску та використовує виходи нейронів попереднього шару як входи наступного.
Мережа Хопфілда
Нейронна мережа з оберненими зв'язками.
Активація
Назва суми зважених входів нейрона.
Мережа Хеммінга
Нейронна мережа, якій притаманне явище резонансу.
Правило Хебба
Правило навчання, згідно з яким зв'язок між одночасно активованими нейронами посилюється.
Гіперболічний тангенс
Функція активації, похідна якої просто виражається через саму функцію.
Ймовірність мутації
Параметр генетичного алгоритму, що зазвичай знаходиться в межах 0.001−0.01.
Оптимізація
Основна задача, для розв'язання якої найчастіше застосовуються еволюційні методи.
Генетичний алгоритм
Метод еволюційного моделювання, що використовує бінарне кодування розв'язків та пошук глобального оптимуму.
Еволюційна стратегія
Метод, де для генерації нащадків використовується нормальний або рівномірний розподіл, а найважливішим параметром є дисперсія.
Правило 1/7 або 20/80
Емпіричні правила, що можуть використовуватись в еволюційній стратегії.
Мурашині алгоритми (ACO)
Метаевристики, що використовуються для задач комбінаторної оптимізації (задача комівояжера, задача про рюкзак).
МГУА (Метод групового урахування аргументів)
Метод самоорганізації моделей, що базується на принципах свободи вибору та зовнішнього доповнення.
Критерій регулярності
Критерій МГУА, для якого властива низька точність при розв'язанні задач екстраполяції (прогнозування).
Мережа RBF
Радіально-базисна мережа, що використовує дзвоноподібні функції активації та забезпечує високу точність інтерполяції всередині області навчання.
Фазифікація
Процес знаходження значень функцій належності для вхідних даних.
Нечітка імплікація
Логічне правило у формі "Якщо A, то B", де A та B - нечіткі множини.
Мережа ANFIS
Адаптивна нейронечітка система виведення, що складається з 5 шарів нейронів.
Дж. Хінтон
Вчений, з яким пов'язують появу та розвиток технологій глибинного навчання.
Код Грея
Кодування, яке раціонально використовувати для забезпечення неперервності простору пошуку в генетичних алгоритмах.
Нечітке виведення Цукамото
Алгоритм, у якому консеквент (результат правила) є монотонним.
Нечітке виведення Такагі-Сугено (TSK)
Алгоритм, у формі якого реалізовано адитивний консеквент (зазвичай лінійна функція).