Теорія навчання математики, фізики, інформатики

From Wikiversity

Теорія навчання математики, фізики, інформатики[edit]

Теоретична інформатика — це наукова галузь, предметом вивчення якої є інформація та інформаційні процеси, в якій здійснюється винахід і створення нових засобів роботи з інформацією. Це підрозділ загальної інформатики та математики, який зосереджується на більш абстрактних або математичних аспектах обчислювальної техніки і яка охоплює теорію алгоритмів. Це розділ математики, який досліджує процеси зберігання, перетворення і передачі інформації. Теорія інформації тісно пов'язана з такими розділами математики як теорія ймовірностей і математична статистика. З моменту свого створення вона розширилася і знайшла застосування в таких областях, як статистичне висновування, обробка природної мови, криптографія, нейробіологія, еволюція та функції молекулярних кодів, теплофізика, квантовий комп'ютер, лінгвістика, для виявлення плагіату, розпізнавання образів, виявлення аномалій та інших форм аналізу даних. Застосування основних тематичних розділів теорії інформації включають стиснення даних без втрат (наприклад, ZIP-файли), стиснення даних з втратами (наприклад, MP3 і JPEG-файли) і канального кодування (наприклад, для цифрових абонентських ліній (DSL). Наука знаходиться на перетині математики, статистики, інформатики, фізики, нейробіології і електротехніки. ЇЇ вплив має вирішальне значення для успіху місії Вояджер в глибокому космосі, винахід компакт-диска, можливість створення мобільних телефонів, розвиток Інтернету, вивчення лінгвістики і людського сприйняття, розуміння чорних дір, і багато іншого. Важливі субполя теорії інформації: стиснення даних, пряма корекція помилок, алгоритмічна теорія складності, алгоритмічна теорія інформації, теоретико-інформаційна безпека, а також вимірювання інформації.

Як будь-яка фундаментальна наука, теоретична інформатика (в тісній взаємодії з філософією і кібернетикою) займається створенням системи понять, виявленням загальних закономірностей, що дозволяють описувати інформацію та інформаційні процеси, що протікають в різних сферах (у природі, суспільстві, людському організмі, технічних системах). Хоча логічний висновок і математичне доведення існували і раніше, у 1931 році Курт Гедель своєю теоремою про неповноту довів, що існують принципові обмеження на те, які формули можуть бути доведені або спростовані. Цей розвиток призвів до сучасного вивчення логіки і обчислюваності, а також, безперечно, області теоретичної інформатики в цілому. Теорія інформації була додана до галузі разом з математичною теорією зв'язку Клода Шеннона (1948). У тому ж десятилітті, Дональд Гебб представив математичну модель навчання в головному мозку. З біологічними даними (кількість яких тільки зростала), що, з деякими виправленнями, підтверджували цю гіпотезу, була створена галузь нейронних мереж і паралельної розподіленої технології обробки. 1971 року Стівен Кук і Леонід Левін, працюючи незалежно один від одного, довели, що існують практично-відповідні проблеми, які є NP-повними — помітний результат в теорії складності обчислень.

З розвитком квантової механіки на початку 20-го століття з'явилася концепція, що математичні операції можуть бути виконані на всій хвильовій функції частинок. Іншими словами, можна обчислити функції на декількох станах одночасно. Це призвело до поняття квантового комп'ютера в другій половині 20-го століття, розвиток якого злетів у 1990-ті роки, коли Пітер Шор показав, що такі методи можуть бути використані для факторіально великого числа за поліноміальний час, які, в разі їх здійснення, робили б найсучасніші асиметричні криптосистеми нікчемно небезпечними.

Сучасні теоретичні дослідження інформатики засновані на цих основних подіях, але включають в себе безліч інших математичних і міждисциплінарних проблем. Алгоритм являє собою покрокову процедуру для розрахунків. Алгоритми використовують для розрахунку, обробки даних і автоматизованого мислення.

Алгоритм є ефективним процесом. Він виражається у вигляді обмеженого списку, що складається з чітко визначених інструкцій для обчислення функції. Починаючи з первинного стану і початкової «вхідної інформації» (цей пункт може бути порожнім), інструкції описують обчислення, які при виконанні проходять через кінцеву кількість чітко визначених послідовних станів і зрештою на останньому етапі результують у «вихідну інформацію». Перехід від одного стану до іншого, не обов'язково детермінований; деякі алгоритми, знані як увипадковлені алгоритми, не виключають випадковий порядок. Структури даних забезпечують ефективні засоби для управління великими обсягами даних для таких ужитків, як великі бази даних і вебіндексування. Як правило, ефективні структури даних грають ключову роль в розробці ефективних алгоритмів. Деякі формальні методи проєктування та мови програмування підкреслюють структури даних, а не алгоритми, як ключовий організаційний фактор у розробці програмного забезпечення. Зберігання та пошук можуть бути здійснені за даними, що зберігаються як в пам'яті комп'ютера, так і у зовнішній пам'яті. Теорія складності обчислень є гілкою теорії алгоритмів, яка фокусується на класифікації обчислювальних проблем відповідно до властивих труднощів, а також установлює зв'язок цих складностей одні з одними. Обчислювальні проблеми — це завдання, які в принципі піддаються вирішенню за допомогою комп'ютера, що еквівалентно тому, що проблема може бути вирішена шляхом механічного застосування математичних кроків, таких як алгоритм. Проблема вважається важкою за своєю суттю, якщо її рішення вимагає значних ресурсів, незалежно від використовуваного алгоритму. Теорія формалізує це, вводячи математичні моделі обчислень для вивчення цих проблем і визначаючи кількість ресурсів, необхідних для їх вирішення (такі як час і сховище). Використовуються й інші міри складності, такі як кількість комунікацій (використовується у комунікаційній складності), кількість вентилів в ланцюзі (використовують в складних схемах), а також кількість процесорів (використовують в паралельних обчисленнях). Одне із завдань теорії складності обчислень полягає у визначенні практичних обмежень на те, що комп'ютери можуть і не можуть зробити. Розподілені обчислення досліджують розподілені системи. Розподілена система являє собою програмне забезпечення, в якому компоненти, розташовані на комп'ютерах однієї мережі зв'язку, обмінюються даними та координують свої дії шляхом обміну повідомлень. Компоненти взаємодіють один з одним для досягнення спільної мети. Три важливих характеристики розподілених систем: паралелізм компонентів, відсутність глобального годинника, і незалежність при виході компонентів з ладу. Приклади розподілених систем варіюються від систем СОА до масових багатокористувацьких ігор і peer-to-peer додатків. Комп'ютерна програма, яка працює в розподіленій системі, називається розподіленою програмою, і розподілене програмування — це процес написання таких програм. Існує багато альтернатив для механізму передачі повідомлень, в тому числі RPC-подібні конектори і черги повідомлень. Важливою метою і завданням розподілених систем є прозорість розташування. Паралельні обчислення — це форма обчислень, в яких кілька дій проводяться одночасно.[15] Ґрунтуються на тому, що великі задачі можна розділити на кілька менших, кожну з яких можна розв'язати незалежно від інших. Є кілька різних рівнів паралельних обчислень: бітовий, інструкцій, даних та паралелізм задач. Паралельні обчислення застосовуються вже протягом багатьох років, переважно в високопродуктивних обчисленнях, але зацікавлення ним зросло тільки нещодавно, через фізичні обмеження зростання частоти.[16] Оскільки споживана потужність (і відповідно виділення тепла) комп'ютерами стало проблемою в останні роки,[17] паралельне програмування стає домінуючою парадигмою в комп'ютерній архітектурі, основному в формі багатоядерних процесорів.[18] Програми для паралельних комп'ютерів писати значно складніше, ніж для послідовних,[19] бо паралелізм додає кілька нових класів потенційних помилок, серед яких найпоширеніною є стан гонитви. Комунікація та синхронізація процесів, зазвичай, одна з найбільших перешкод для досягнення хорошої продуктивності паралельних програм. Максимальний можливий приріст продуктивності паралельної програми визначається законом Амдала. Машинне навчання — це навчальна дисципліна, яка займається будівництвом і вивченням алгоритмів, які можуть навчатися з даних. Такі алгоритми працюють шляхом побудови моделі, яка основана на вхідних даних, і використовує це скоріш для того, щоб робити прогнози або приймати рішення, а не для слідування тільки явно запрограмованим інструкціям.

Машинне навчання можна розглядати як під-область інформатики та статистики. Вона має міцні зв'язки з штучним інтелектом і оптимізацією, які забезпечують методи, теорію і застосування доменів до області. Машинне навчання використовується в різних обчислювальних задачах, де розробка та програмування чітких алгоритмів на основі правил є неприпустимою. Приклади застосування включають фільтрацію спаму, оптичне розпізнавання символів (OCR), пошукові системи і комп'ютерний зір. Машинне навчання іноді з'єднані з добуванням даних, хоча це більше сфокусовано на пошуковому аналізі даних. Машинне навчання та розпізнавання образів можна розглядати як два аспекти одного і того ж поля.

Обчислювальна геометрія — галузь комп'ютерних наук присвячена вивченню алгоритмів що описуються в термінах геометрії. Основним стимулом розвитку обчислювальної геометрії як дисципліни був прогрес у комп'ютерній графіці та системах автоматизованого проєктування та автоматизованих систем технологічної підготовки виробництва, проте багато задач обчислювальної геометрії є класичними за своєю природою, і можуть з'являтись при математичній візуалізації. Іншим важливим застосуванням обчислювальної геометрії є робототехніка (планування руху та задачі розпізнавання образів), геоінформаційні системи (геометричний пошук, планування маршруту), дизайн мікросхем, програмування верстатів з числовим програмним управлінням, CAE, комп'ютерний зір (3D реконструкції). Криптогра́фія — наука про математичні методи забезпечення конфіденційності, цілісності і автентичності інформації. Розвинулась з практичної потреби передавати важливі відомості найнадійнішим чином. Для математичного аналізу криптографія використовує інструментарій абстрактної алгебри та теорії ймовірностей. Криптографічні алгоритми розроблені навколо припущень обчислювальної складності, що робить такі алгоритми важкими для зламування на практиці. Теоретично зламати таку систему можна, але це неможливо зробити будь-яким з відомих практичних засобів. Квантовий комп'ютер — фізичний обчислювальний пристрій, функціонування якого ґрунтується на принципах квантової механіки, зокрема, принципі суперпозиції та явищі квантової заплутаності. Такий пристрій відрізняється від звичайного транзисторного комп'ютера зокрема тим, що класичний комп'ютер оперує даними, закодованими у двійкових розрядах (бітах), кожен з яких завжди знаходяться в одному з двох станів (0 або 1), коли квантовий комп'ютер використовує квантові біти (кубіти), які можуть знаходитися у суперпозиції станів. Інформатико-теоретичною моделлю такого обчислювального пристрою є квантова машина Тюрінга, або універсальний квантовий комп'ютер. Квантовий комп'ютер має низку спільних ознак із недетермінованим та ймовірнісним комп'ютерами, але тим не менш ці пристрої не є тотожними. Вважається, що вперше ідею використання принципів квантової механіки для виконання обчислень висловили Юрій Манін та Річард Фейнман в 1981 році. Станом на 2014 рік, квантові обчислення все ще перебувають в початковому стані, але були проведені експерименти, в яких квантові обчислювальні операції були виконані на дуже невеликій кількості кубітів. І практичні, і теоретичні дослідження тривають, і багато національних урядів і військових фінансувальних установи підтримують дослідження квантових обчислень для розробки квантових комп'ютерів як для цивільних, так і в цілях національної безпеки, таких як криптоаналіз. Семантика в теорії програмування — розділ що вивчає математичне значення мови програмування та моделі обчислень. Формальна семантика мови задається математичною моделлю яка описує можливі в мові обчислення.

Семантика описує процеси, які виконує комп'ютер при виконанні програми в цій конкретній мові. Це можна показати описанням взаємозв'язку між входом і виходом програми або поясненням того, як програма буде виконуватися на певній платформі, отже, створюючи моделі обчислень. Формальні методи — у комп'ютерних науках, побудовані на математиці методи написання специфікацій, розробки та перевірки програмного забезпечення та комп'ютерного обладнання. Цей підхід особливо важливий для вбудованих систем, для яких важливими є надійність або безпека, для захисту від помилок у процесі розробки. Формальні методи найкраще описати як застосування досить широкого розмаїття теоретичних основ інформатики, зокрема логіки обчислень, формальних мов, теорії автоматів і семантики мов програмування, окрім того, системи типізації і алгебричні типи даних для специфікації і перевірки проблем в програмному і апаратному забезпеченні. Тео́рія автома́тів — логіко-математична теорія, об'єктом дослідження якої є абстрактні дискретні автомати — покрокові перетворювачі інформації; розділ теоретичної кібернетики. Це вивчення самопрацюючих віртуальних машин для допомоги в логічному розумінні введення і виведення процесу, з або без проміжної стадії(ій) обчислення (або будь-якої функції/процесу). Теорія кодування — вивчення властивостей кодів та їх придатності для специфічних задач. Коди використовуються для стиснення даних, криптографії, знаходження і виправлення помилок і від недавнього часу для мережевого кодування. Коди вивчаються у теорії інформації, електротехніці, математиці і кібернетиці для створення ефективних і надійних методів перетворення даних. Це зазвичай передбачає прибирання надмірності коду та знаходження і виправлення помилок. Комп'ютерна алгебра, яку також називають символьними обчисленнями або алгебричними обчисленнями, є науковою областю, яка належить до вивчення і розробки алгоритмів і програмного забезпечення для роботи з алгебричними виразами та іншими математичними об'єктами. Хоча комп'ютерна алгебра повинна бути під-областю наукових обчислень, вона, як правило, розглядається як окрема наука. Зокрема, така, як наукові обчислення, що, як правило, основані на чисельних методах з приблизними числами з рухомою комою, в той час як символьні обчислення підкреслюють точне обчислення виразів, що містять змінні, які не мають ніякого заданого значення, і, таким чином, розглядаються як символи (від того і назва — символьні обчислення).

Програмні додатки, які виконують символічні обчислення називаються системами комп'ютерної алгебри, де термін система вказує на складність основних додатків, які включають в себе, як мінімум: спосіб для представлення та вводу математичних даних в комп'ютер користувацька мову програмування (як правило, відрізняється від мови, в якій використовується імплементації) окремий менеджер пам'яті користувацький інтерфейс для введення/виведення математичних виразів великий набір підпрограм для виконання звичайних операцій, таких як спрощення виразів, пошук похідної за правилом диференціювання складеної функції, факторизація многочленів, інтегрування і т. д. Алгоритмічна теорія чисел — це наука про алгоритми для виконання цифрових теоретичних обчислень. Найвідомішою проблемою в цій галузі є факторизація цілих чисел.

Інформаційна складність (IBC[en]) вивчає оптимальні алгоритми і обчислювальну складність для безперервних завдань. ІС вивчає такі безперервні проблеми, як інтеграція шляху, диференціальні рівняння з частинними похідними, системи звичайних диференціальних рівнянь, нелінійні рівняння, інтегральні рівняння, нерухомі точки і інтегрування високочастотних функцій. Теоретичні результати в машинному навчанні переважно стосуються індуктивного навчання, що називають керованим. У такому навчанні, алгоритму надаються зразки, що марковані певним зручним способом. Наприклад, зразками можуть бути описи грибів, а мітками — чи є гриби їстівними. Алгоритм приймає ці відмічені раніше зразки і використовує їх, щоб стимулювати класифікатор. Цей класифікатор — функція, яка призначає мітки для зразків, включаючи вибірки, які ніколи раніше не бачив алгоритм. Мета алгоритму керованого навчання полягає в оптимізації продуктивності, наприклад, зведення до мінімуму кількість помилок при обробці нових зразків.

Обчислювальна біологія охоплює розробку і застосування інформаційно-аналітичних та теоретичних методів, математичного моделювання та обчислювальної техніки моделювання для вивчення біологічних, поведінкових і соціальних систем. Поле має широке визначення і охоплює основи в галузі інформатики, прикладної математики, анімації, статистики, біохімії, хімії, біофізики, молекулярної біології, генетики, геноміки, екології, еволюції, анатомії, неврології і візуалізації. Обчислювальна біологія відрізняється від біологічних обчислень, що є під-областю інформатики та обчислювальної техніки та використовує біоінженерію та біологю для створення комп'ютерів, але схожа на біоінформатику, яка є міждисциплінарною наукою, яка використовує комп'ютери для зберігання і обробки біологічних даних.

Штучні нейронні мережі, генетичні алгоритми, фрактали, динамічний хаос, кліткові автомати, мультиагентні моделі, системи штучного інтелекту, експертні системи, кластерний аналіз, вейвлет-аналіз – сучасний математичний інструментарій для моделювання і дослідження поведінки складних систем. Проте дані методи або є суто емпіричними та не мають строгого обґрунтування через відсутність належної чи загальноприйнятої аксіоматики, або є відносно невеликими «островами» в морі недоведеного, до того ж в практичному аспекті часто малозначущими. Навіть класична математика є неповною в самих її основах, як уперше було показано Гьоделем ще в першій половині минулого століття. Спроби створити адекватну модель складних соціальноекономічних систем, як і спроби розробити відповідний математичний апарат для їх прогнозування, робилися і робляться сьогодні. Це надзадача, повне розв’язання якої недосяжне в принципі. Причини глобальної нерозв’язаності такої задачі – в надзвичайно різноманітному і складному характері взаємодії і поведінки складових системи, в наявності «довгої» і до кінця не відтворюваної пам’яті, в проблемі вибору інформативних показників і адекватних процедур їх вимірювання, у принципово неусувному впливі результатів вимірювання на прогноз [1].

Математика є експериментальною наукою, і нові спостереження та результати експериментів, у тому числі і отримані за допомогою засобів самої математики, можуть вимагати корекції або перегляду її основ. Згідно з Декартом, основними поняттями математики є поняття порядку та міри. Визначити або хоча б описати будьяке початкове поняття дуже важко, тому одним з способів його розкриття може бути наведення більш-менш вдалих прикладів. Проте, ми вважаємо, що поняття порядку є первинним, оскільки поняття міри засноване на вимірюванні – процедурі, яка у свою чергу включає процедуру порівняння, тобто встановлення порядку. Процедура вимірювання в соціально-економічних системах займає скінчений час, а результати вимірювання залежать від процедури вимірювання і є похідними по відношенню до останньої. Також цілком доречно прийняти гіпотезу про те, що не існує миттєвих значень економічних і будь-яких інших величин та показників, причому точність їх вимірювання зменшується зі скороченням часу вимірювання. Вчені-економісти, що вивчають фундаментальні проблеми сучасної економічної теорії, навіть в наш час повної «інформатизації» та «комп’ютеризації» з обережністю користуються або взагалі не користуються математичною мовою, віддаючи перевагу, при першому ж сумніві відносно її адекватності, введенню нових, на перший погляд незвичайних понять. Так, французький вчений і практик Ж. Сапір [3] для характеристики стабільного стану соціально-економічної системи вводить поняття координації, яке не можна звести до таких математичних або фізичних понять як рівність, тотожність, еквівалентність, рівновага, стаціонарність тощо. Це поняття слід вважати скоріш деякою специфічною характеристикою дії, процесу, нестаціонарного за визначенням, що забезпечує соціально-економічній системі стабільне та стійке структурне існування. Тут ми знову знаходимо «економічні» аргументи на перевагу первинності процедури. Досить переконливі свідоцтва в користь наших роздумів присутні в роботах академіка В. П. Маслова. В своїй роботі, присвяченій математичній моделі світової економічної кризи 2008 року [4], він вказує на те, що теорія імовірності й теорія оптимізації, на яких побудована класична економічна наука, не є адекватним математичним інструментарієм для динамічного опису сучасної економіки. З його точки зору, в якості альтернативи слід використовувати Колмогорівську теорію складності [2], в основі якої лежить алгоритмічний підхід. Таким чином, за основу математичного моделювання динаміки складних систем будь-якої природи повинні братися концепції, що не обов’язково мають співпадати з традиційними. Така концепція може базуватись на первинному понятті процедури вимірювання або алгоритму обчислення як джерела фізичних або економічних величин. Точність вимірювання зростає зі збільшенням тривалості вимірювання, але це можливо тільки в тому випадку, коли система знаходиться в незмінному стані, тому для реальних динамічних систем існує свій оптимальний час вимірювання, відповідно, оптимальне спостереження (вимірювання) над системою обов’язково має дискретний за часом характер. В соціально-економічних системах до складних вимірювань слід віднести також розрахунки над сукупністю вхідних даних, в тому числі прогнозування динаміки, у відповідності з певним алгоритмом. Таким чином, алгоритм стає вимірювальною процедурою, що породжує відповідну величину, при цьому реалізація цієї процедури, може непередбачуваним чином змінити стан системи та її майбутню поведінку. Як показує аналіз, несуперечливим чином ввести поняття порядку, не спираючись на фізичну незворотність часу, практично неможливо. Таким чином слід визнати, що час t – це не зовсім звичайна змінна (разом з просторовими координатами, параметрами та іншими змінними). Проте, не виділена її особлива роль в теоретико-множинному і абстрактно-алгебаїчному («безчасовому») підході, на якому базується значна частина сучасної математики. Колмогоровим вперше запропонована ідея алгоритмічного підходу (що, на наш погляд, відрізняється від теорії алгоритмів в її звичайному трактуванні). З первинності процедури вимірювання, необхідності і неминучості її фізичної реалізації і наявності особливого незворотного фізичного чинника – часу – випливають базові принципи дискретності, невизначеності і післядії ("пам’яті"), а також концептуальні обмеження на область застосування поняття нескінченності. В зв’язку з цим, особливу роль займають алгоритмічні моделі, що по своїй структурі є дискретними, як за часом, так і за іншими змінними, і ставлять на перше місце алгоритм, тобто процедуру, дію, за допомогою якої здійснюється той чи інший процес. Алгоритмічний підхід, як відомо, почав розвивати А. М. Колмогоров, передбачаючи за ним велике майбутнє. Йому також належить одне з перших вказівок на пріоритетність та незалежність дискретного підходу (по відношенню до неперервного) в моделюванні складних систем [2]. В межах такого підходу, при широкому використанні алгоритмічних моделей, можуть бути враховані та реалізовані усі перераховані вище концептуальні положення, що стосуються постановки та розв’язання задач математичного моделювання складних систем. Розглянемо ще одну з таких можливостей. Будь-яку нескінченну послідовність елементів будь-якої природи, у тому числі і числовий натуральний ряд, не можна задати, не задавши алгоритм, що породжує його. Тому самостійне значення поняття нескінченності набуває тільки в тих випадках, коли послідовність в тому або іншому сенсі сходиться, що спостерігається далеко не завжди. Дослідження послідовностей (не обов’язково одновимірних і не обов’язково числових), що не сходяться, породжуваних певними алгоритмами, а також дослідження процесів, що породжуються цими послідовностями, і є, на наш погляд, завдання динамічної мережевої математики. Наскільки складними і непередбачуваними можуть бути подібні об’єкти, видно з фрактальної геометрії. 154 Серед фахівців, що глибоко займаються проблемами формування ринкових цін (не на рівні сталих догм типу «невидима рука ринку»), давно склалася думка, що реальні ціни формуються в результаті численних і дуже складних актів взаємодії агентів ринку. При цьому агентами виступають учасники ринку різного масштабу, починаючи від окремих фізичних осіб, і закінчуючи великими міжнаціональними корпораціями. Саме з цих причин, на наш погляд, у світовій економічній науці спостерігається зростання інтересу до мультиагентних та теоретико-ігрових моделей, генетичного і еволюційного моделювання, кліткових автоматів та інших, мережевих по суті, моделей, як до засобів дослідження поведінки складних соціально-економічних систем. Мета даної, дискусійної по своїй суті роботи: внести розуміння в обговорюване коло питань для фахівців, що не є професійними математиками, так само як і допомогти останнім правильно розставити акценти в зусиллях, що докладаються ними, при постановці і розв’язуванні прикладних фундаментальних завдань. Можна називати обговорювану в цій роботі динамічну мережеву математику по-різному: алгоритмічна, обчислювальна, комп’ютерна, нейромережева, евристична, експериментальна, або просто «правдоподібна». Її роль, на наш погляд, полягає у тому, щоб зіштовхуючись з протиріччями та нерозв’язними проблемами, вказувати нові напрями перспективних досліджень, розставляти свого роду "галочки" у множині того, чим в принципі можна, але не завжди слід займатися. У контексті обговорюваних проблем буде доречним привести висловлювання академіка В. П. Маслова, що стосується застосування математики до економічних проблем, але може бути також застосоване до математики в цілому: «Математична теорія, що використовується економістами до теперішнього часу, – це теорія імовірності і теорія оптимізації. Ці теорії не можуть пояснити ті істотні зміни, які принесла комп’ютеризація, так само як на початку 20-го століття класична фізика не змогла інтерпретувати нові експерименти» [4]. Запропонована нами назва – динамічна мережева математика – з одного боку, підкреслює її фундаментальний, а не евристичний характер, з іншого боку – відбиває динамічний і одночасно мережевий характер процедур, що в ній виконуються. Особливості динамічної мережевої математики, якщо мати на увазі її практично вагомі аспекти, пов’язані з багатовимірністю і невизначеністю вхідних даних, з «прокляттям розмірності» обчислювальних процедур, з нелінійним і складним характером взаємодій. Детальне дослідження динаміки диференціальних економіко-математичних моделей неможливе без чисельних експериментів з використанням дискретних моделей та комп’ютерних засобів [5]. З появою комп’ютерів стало можливим створювати моделі, в яких будуть враховуватися властивості кожного, навіть незначного об’єкта, що приймає участь в процесі. Поєднуючи аналітичні методи та комп’ютерні симуляції, можна отримати результати, недосяжні суто аналітичними методами. Такі дослідження повинні носити системний і послідовний характер та в принципі неможливі без застосування сучасних комп’ютерних засобів і очевидні перспективи їх подальшого розвитку з використанням багатопроцесорних систем, штучних нейронних мереж та інших паралельних технологій нейромережевого типу. Практичні результати, отримані в ряді досліджень [1; 5] підтверджують проведений вище аналіз та його висновки, додаючи їм не тільки технічний, але й концептуальний характер.

Література[edit]

1. Синергетичні та еконофізичні методи дослідження динамічних та структурних характеристик економічних систем : монографія / В. Д. Дербенцев, О. А. Сердюк, В. М. Соловйов, О. Д. Шарапов. – Черкаси : Брама-Україна, 2010. – 300 с. 2. Maslov V. P. Threshold levels in Economics / Maslov, V. P. – 27 Mar 2009. – 28 p.

Для студентів старших років навчання. Основною метою є ознайомлення студентів з основами проведення наукових досліджень. Огірко І.В.