Головна » Статті » Інформатика [ Додати статтю ]

Методи та засоби збору, перетворення і введення даних
Підсистема збору, перетворення і введення даних грає головну роль в автоматизованій інформаційній системі і є основною з'єднувальною ланкою між навколишнім середовищем і численними користувачами. Збір даних може здійснюватися механічним способом (вимірювальним пристроєм, що перетворює фізичні величини в електричні, щупом, самописним приладом, що реєструє імпульсні сигнали, і т. д.) і людиною (шляхом спостереження певного явища, сприйняття акустичного і світлового сигналу, зняття показань лічильника і т. д.). Механічна реєстрація даних полягає в тому, що джерело інформації, тобто «подія» або «явище», виявляється у вигляді зміни деякого фізичного стану, і цей новий стан реєструється механічним способом. Спостереження, здійснюване людиною, із наступним відновленням результатів по пам'яті, називають «записом». Фактично мова йде про те, що людина фіксує інформацію, яка у певний момент закарбувалася в її пам'яті, і клітини її мозку з фіксованою інформацією по суті справи відіграють роль проміжного передавального документа.

При механізованому обліку час спрацьовування датчика і ступінь достовірності одержуваної інформації постійні і заздалегідь відомі. При спостереженні, яке здійснюється людиною, вноситься невизначеність, і час спрацьовування не може бути відомим з достатньою точністю. Зате в другому випадку відкриваються набагато більш широкі можливості, тому що людина, володіючи здатністю до інтерпретації (деякою мірою ця здатність негативно впливає на точність інформації), може брати до уваги такі факти, що не фіксуються механічним способом. Акт збору даних фактично складається з двох доповнюючих одна одну операцій: реєстрації і передачі. Однак очевидно, що основною операцією є реєстрація даних, і в більшості випадків її введення в автоматизовану інформаційну систему невіддільне від реєстрації.

Підсумком процесу збору даних є забезпечення їхньої готовності до подальшого руху в системі й подання їх у найрізноманітніших формах (кодовані сигнали, видрукований текст і т. д.). Формою подання даних є сигнал, який виробляється датчиком при кожній зміні стану процесу стосовно деякого вихідного стану. Найбільш широко на практиці використовуються датчики з одним або двома стійкими станами. У основу їх конструкцій можуть бути покладені різні принципи, в залежності від яких розрізняють наступні моделі (типи) датчиків: механічні, електромеханічні, оптичні, акустичні, випромінюючі та інші.

Кінцевою метою аналізу даних є одержання інформації, на основі якої можуть прийматися правильні рішення.

Основні етапи технології аналізу даних показані на рис.1.3.

Типовою формою представлення даних є таблиця «об'єкт-ознака», у яку заносяться значення ознак (властивостей), що характеризують кожний досліджуваний об'єкт. Прикладами ознак можуть бути «вага», «довжина», «колір», «професія», «ціна», «люди», «вироби», «родовище» та ін. Таблицю такого виду прийнято називати таблицею або матрицею експериментальних даних (ТЕД). Цю назву варто трактувати більш широко, говорячи не про експериментальні дані, а про дані наукового дослідження.

Склад даних — це, насамперед, склад ознак, що характеризують об'єкти. Кожний реальний об'єкт має нескінченне число різноманітних властивостей, що відображають його різні сторони. Природно, що в кожному конкретному дослідженні істотними є не всі властивості, а лише обмежений їх набір, що визначає найбільш важливі ознаки. Виділити їх — завдання фахівця предметної області; ніхто інший, включаючи фахівця з аналізу даних, цього зробити не може. Необхідно також вирішити, як подавати в таблиці значення кількісних ознак та ін.

Наступним етапом аналізу даних є етап, на якому поставлене завдання вирішується на якісному рівні. Це насамперед означає процедуру подання даних у візуальній формі, щоб побачити їхню придатність для перевірки візуальних гіпотез або обраних моделей. Саме побачити, оскільки зоровий аналізатор людини — канал, по якому мозок одержує найбільший об'єм зовнішньої інформації. Найголовніше те, що ця інформація може бути неформалізованою і в той же час майже однаково сприйматися людьми, що мають різний рівень підготовки і працюють у різних областях. На етапі якісного аналізу даних основні гіпотези стосуються структури даних — саме її необхідно досліджувати. Тому завдання полягає в побудові проекцій даних на різні пари ознак (на які саме — варто визначити, виходячи з висунутої гіпотези); дослідженні окремих ознак; пошуку дублюючих одна одну або надлишкових ознак і т. д.

Гіпотез, що пояснюють явище, може бути багато, отже, повинен бути апарат, що допомагає здійснювати їхню перевірку. У аналізі даних таким апаратом є обчислювальний експеримент із даними, тобто застосування до даних певного методу машинної обробки. Обчислювальний експеримент є однією з загальних методологій застосування обчислювальної техніки в різноманітних областях — методологією перевірки гіпотез, висунутих дослідниками, за допомогою машинних методів або моделей .Якщо обчислювальний експеримент можна назвати стратегією аналізу даних, то тактикою його правомірно вважати зіставлення результатів застосування різноманітних алгоритмів обробки. На одиничний результат роботи якоїсь програми рідко можна покластись. Занадто багато чинників може вплинути на нього (причому часто незалежних від самих даних або математичних методів).

Результати роботи декількох програм, як правило, свідчать про багато що, але при цьому потрібно уважно підходити до вибору тих методів, які застосовуються для обробки.

Цих же принципів слід дотримуватися і на інших етапах аналізу, насамперед на етапі кількісного аналізу даних. Якщо при якісному аналізі об'єктом дослідження була структура даних, а результатом, як правило, — інформація про клас моделей, якими можна описати явище, то на етапі кількісного опису звичайно ведеться пошук параметрів цих моделей.

Обчислювальний експеримент дає можливість випробувати різноманітні варіанти моделей, наприклад, шукати різноманітні засоби інформаційного опису даних, а порівняльний аналіз допомагає відібрати кращі варіанти, що мають право на існування не тільки як формальні результати експериментування, але і як змістовно значима інформація про предметну область. Відзначимо, що в процесі пошуку кількісного опису даних (наприклад, при побудові правила розпізнавання) дуже часто виникає необхідність повернення до більш ранніх етапів обробки і повторення всього циклу дослідження. Це може бути викликано і знайденими помилками в даних, і усвідомленням необхідності у зборі й обробці додаткового матеріалу.

Останній етап вирішення завдання аналізу даних — інтерпретація результатів і прийняття рішень. Всі отримані на ЕОМ результати фахівець з аналізу даних може інтерпретувати, не виходячи за рамки понять і аналізу даних, у термінах інформативних ознак, групувань об'єктів і т. д. Користувач же щораз порівнює отриманий результат (або інтерпретацію фахівця з аналізу даних), виданий йому в цифровій або графічній формі, зі своїми власними уявленнями про досліджуване явище. Таким чином, відбувається подвійне осмислення результатів — спочатку в рамках аналізу даних, а потім у рамках предметної області, причому друге неможливе без першого. Процедура інтерпретації результатів опрацювання даних здійснюється тим легше, чим більш зручною форма видачі результатів на екрани монітора або до друку. Прийняття рішень у рамках предметної області суто індивідуальне і не може бути типізоване. Досить поширеною тут помилкою є ілюзія, ніби-то отриманий результат і є вже прийнятим рішенням.

Кожний алгоритм обробки дає один із можливих результатів (МР). При аналізі сукупності МР, одержаних за допомогою ряду алгоритмів, можливі три ситуації:

1) усі МР збігаються (це буває вкрай рідко в практичних задачах). У цьому випадку рішення задачі можна вважати досягнутим в силу одержання єдиного результату.

2) МР частково збігаються. У цьому випадку можна виділити загальну частину як можливий достовірний результат (МДР) і аналізувати його з наступною інтерпретацією в термінах відповідної предметної області;

3) МР суперечать один одному. Цей випадок означає, що задача була сформульована некоректно і потрібно її коригування з можливими змінами як в експериментальному матеріалі (аж до збору нових даних), так і в сукупності алгоритмів, які при цьому використовуються.

ЛІТЕРАТУРА

1. Бухвалов А.В. и др. Финансовые вычисления для профессионалов.- СПб.: БХВ-Петербург, 2001.-320с. ил.

2. Гарнаев А.Ю. Excel, VBA, Internet в экономике и финансах.- СПб.: БХВ-Петербург, 2001.- 816с.:ил.

3. Евдокимов В.В. и др. Экономическая информатика. Учебник для вузов. Под ред. Д.э.н., проф. В.В.Евдокимова. – СПб.: Питер, 1997. – 592с.

4. Згуровський М.З., Коваленко І.І., Міхайленко В.М. Вступ до комп’ютерних інформаційних технологій: Навч.посіб. – К.: Вид-во Європ. ун-ту (фінанси, інформ. системи, менеджм. і бізнес), 2000.- 265 с.

5. Информатика. Базовый курс/ Симонович С.В. и др.- СПб.: Питер, 2000.- 640с.:ил.

6. Карлберг, Конрад. Бизнес-анализ с помощью Excel.: Пер с англ.- К.: Диалектика, 1997.- 448с.: ил.

7. Лук‘янова В.В. Комп‘ютерний аналіз даних: Посібник. – К.: Видавничий центр „Академія”, 2003. – 344с. (Альма-матер)
Категорія: Інформатика | Додав: КрАсАв4іК (31.12.2012)
Переглядів: 540 | Рейтинг: 0.0/0
Всього коментарів: 0
Додавати коментарі можуть лише зареєстровані користувачі.
[ Реєстрація | Вхід ]