Рефераты

Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий

Использование этой методики в работе с сейсмическими данными затруднено тем обстоятельством, что исходная выборка очень мала, а хотелось бы как можно больше данных использовать для обучения сети. В связи с этим было принято решение отказаться от формирования валидационного множества, а в качестве момента остановки алгоритма обучения использовать следующее условие: ошибка обучения достигает заданного минимального уровня, причем значение минимума устанавливается немного большим чем обычно. Для проверки этого условия проводились дополнительные эксперименты, показавшие что при определенном минимуме ошибки обучения достигался относительный минимум ошибки на тестовых данных. Два других подхода для контроля переобучения предусматривают постепенное изменение структуры сети. Только в одном случае происходит эффективное вымывание малых весов (weight elimination) ,т.е. прореживание малозначительных связей, а во втором, напротив, поэтапное наращивание сложности сети. [3,4,5]. 6.6 Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели. Из исходных данных необходимо сформировать как минимум две выборки – обучающую и проверочную. Обучающая выборка нужна для алгоритма настройки весовых коэффициентов, а наличие проверочной, тестовой выборки нужно для оценки эффективности обученной нейронной сети. Как правило, используют следующую методику: из всей совокупности данных случайным образом выбирают около 90% векторов для обучения, а на оставшихся 10% тестируют сеть. Однако, в условиях малого количества примеров эта процедура становится неэффективной с точки зрения оценивания вероятности ошибки классификации. В разделе 4.4 был описан другой, наиболее точный метод расчета ошибки классификации. Это, так называемый, метод скользящего экзамена (синонимы: cross-validation, “plug-in”-метод).[7,9]. В терминах нейронных сетей основную идею метода можно выразить так: выбирается один вектор из всей совокупности данных, а остальные используются для обучения НС. Далее, когда процесс обучения будет завершен, предъявляется этот выбранный вектор и проверяется правильно сеть распознала его или нет. После проверки выбранный вектор возвращается в исходную выборку. Затем выбирается другой вектор, на оставшихся сеть вновь обучается, и этот новый вектор тестируется. Так повторяется ровно n1+n2 раз, где n1 –количество векторов первого класса, а n2 - второго. По завершению алгоритма общая вероятность ошибки P подсчитывается следующим образом: Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий , где N= n1+n2 - общее число примеров; E– число ошибочных векторов (сеть неправильно распознала предъявляемый пример). Недостатком этого метода являются большие вычислительные затраты, связанные с необходимость много раз проводить процедуру настройки весовых коэффициентов, а в следствии этого и большое количество времени, требуемое для вычисления величины Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий . Однако в случае с малым количеством данных для определения эффективности обученной нейронной сети рекомендуется применять именно метод скользящего экзамена или некоторые его вариации. Стоит отметить, что эффективность статистических методов классификации сейсмических сигналов также проверяется методом скользящего экзамена. Таким образом, применяя его для тестирования нейросетевого подхода, можно корректно сравнить результаты экспериментов с возможностями стандартных методов. 7. Программная реализация. При выборе программного обеспечения для решения определенной задачи с помощью нейронных сетей возможны два подхода: использование готовых решений в виде коммерческих пакетов или реализация основных идей в виде собственной программы. Первый подход позволяет получить быстрое решение, не вдаваясь в детальное изучение работы алгоритма. Однако, хорошие пакеты, в которых имеются мощные средства для реализации различных парадигм нейронных сетей, обработки данных и детального анализа результатов, стоят больших денег. И это сильно ограничивает их применение. Еще одним недостатком является то, что несмотря на свою универсальность, коммерческие пакеты не реализовывают абсолютно все возможности моделирования и настройки нейронных сетей, и не все из них позволяют генерировать программный код, что весьма важно. Если же возникает необходимость построить нейросетевое решение, адаптированное под определенную задачу, и реализованное в виде отдельного программного модуля, то первый подход чаще всего неприемлем. Именно такие требования и были выдвинуты на начальном этапе исследований. Точнее, необходимо было разработать программу, предназначенную для классификации сейсмических данных при помощи нейросетевых технологий, а также работающую под операционной системой Unix (Linux и Sun Solaris SystemV 4.2). В результате была разработана программа, реализующая основные идеи нейроинформатики, изложенные в разделе 6. Следует отметить, что базовый алгоритм программы был выполнен под системой Windows 95, а лишь затем оптимизирован под Unix по той причине, что предложенная операционная система используется в узких научных и корпоративных кругах, и доступ к ней несколько ограничен, а для отладки программы требуется много времени. Для большей совместимости версий под различные платформы использовались возможности языка программирования С. 7.1 Функциональные возможности программы. В программе “nvclass.с” – (нейро-классификатор векторов данных) реализована модель двухслойного персептрона, представленная в разделе 6. Эта программа предназначена для соотнесения тестируемого вектора признаков сейсмической информации к одному из двух классов. Входные данные представляют собой предысторию сейсмических явлений конкретного региона, а также тестируемый вектор признаков, соответствующий сейсмическому событию, не включенному в предысторию. Эти данные считываются из соответствующих файлов в виде набора векторов признаков заданной размерности. Автоматически, в зависимости от размерности входных векторов, определяется конфигурация нейронной сети т.е. по умолчанию для заданной размерности входных данных выбирается определенное (рекомендуемое по результатам предварительных экспериментов) число нейронов в входном и скрытом слоях, хотя при желании эти параметры легко меняются. В качестве правила обучения нейронной сети реализован алгоритм обратного распространения ошибки и некоторые методы его оптимизации. После завершения процесса обучения тестируемый вектор признаков подается на вход уже обученной сети и вычисляется результат, по которому сеть с определенной вероятностью соотносит входной вектор к одному из заданных классов. Для дополнительной настройки нейронной сети в программе реализован ряд процедур, описанных в разделе 6. Из них можно выделить следующие: · Различные процедуры начальной инициализации весовых коэффициентов; · Пакетный режим обучения; · Алгоритм коррекции шага обучения; · Процедуры предварительной обработки данных; · Алгоритм оценки эффективности – cross-validation. · Процедура многократного обучения. Последняя процедура (многократное обучение сети) предусмотрена для устранения возможных ошибок идентификации. Для нейронной сети заданное число раз (Cycle) генерируются матрицы начальных весовых коэффициентов и выполняется алгоритм обучения и идентификации тестового вектора. По полученным результатам обучения и тестирования выбирается вариант наибольшего повторения и итоговое решение принимается исходя из него. Для исключения неоднозначности это число выбирается положительным , целым, нечетным. В программе “nvclass” предусмотрены следующие режимы функционирования: · «Внешний» режим – идентификации тестового входного вектора признаков; · «Внутренний» режим – идентификация вектора признаков из набора векторов предыстории. «Внешний» режим предназначен для классификации вновь поступивших сейсмических данных и может быть использовать в следующих случаях · Классификация на нейронных сетях, уже обученных на данных из конкретных регионов регионов, · Классификация с повторным обучением нейронной сети. «Внутренний» режим служит для оценки вероятности ошибки идентификации сети и включает два подрежима – проверки правильности идентификации одного из векторов набора предыстории и последовательной проверки всех заданных векторов (“cross-validation”). Режим работы программы устанавливается в файле настроек. После завершения работы основные результаты записываются в соответствующий файл отчета, который потом можно использовать для детального анализа. Пример файла приведен в приложении 4. 7.2 Общие сведения. 1. Программный пакет предназначенный для идентификации типа сейсмического события включает следующие модули: · Исходный код программы “nvclass.c” и “nvclass.h”; · Файл с настройками режима работы программы “nvclass.inp”; · Файл с обучающей выборкой векторов “vector.txt”; · Файл с векторами для тестирования сети “vector.tst”; · Файл, содержащий описание определенной конфигурации сети и весовые коэффициенты этой уже обученной сети “nor18.net”. · Файл автоматической компиляции “Makefile” (Только для версии под Unix). · Файл отчета о результатах работы программы “Report.txt”. 2. В настоящий момент разработано две версии программы. Одна работает под операционной системой Dos 6.2 и выше, а другая под Unix (Linux, Solaris V4.2). 3. Необходимое средство компиляции: · Для Dos (Windows) – любой компилятор Си. Например, Borland C++ 3.1 или выше. · Для Unix стандартный компилятор cc, входящий в состав базовой комплектации любой операционной системы семейства Unix. 7.3 Описание входного файла с исходными данными. В качестве исходных данных используется отформатированный текстовый файл, в котором хранится информация о размерности векторов, их количестве и сами вектора данных. Файл должен иметь форму числовой матрицы. Каждая строка матрицы соответствует одному вектору признаков. Количество признаков должно совпадать с параметром NDATA. Количество столбцов равно количеству признаков плюс два. Первый столбец содержит порядковый номер вектора в общей совокупности данных (соответствует последовательности 1, 2, 3,...,NPATTERN ), а в последнем столбце записаны значения указателя классификатора: 1- для вектора из первого класса, 0 – для вектора из второго класса. Все числовые параметры разделяются пробелами и записываются в кодах ASCII. Пример файла приведен в приложении 2. 7.4 Описание файла настроек. Параметры настройки программы содержаться во входном файле “nvclass.inp”. Пример файла приведен в приложении 3. Для настройки используются следующие переменные: TYPE - РЕЖИМ РАБОТЫ ПРОГРАММЫ TYPE=1_1 Это значение соответствует внешнему режиму функционирования программы без обучения нейронной сети, т.е. тестирование на заранее обученной нейронной сети. При этом надо задать следующие параметры: 1. NDATA –Размерность входных данных 2. TESTVECTOR – Имя файла с тестируемым вектором 3. NETWORKFILE – Имя файла с матрицами весов предварительно обученной сети TYPE=1_2 Это значение соответствует внешнему режиму функционирования программы с обучением нейронной сети и тестированием на ней заданного вектора. Необходимо задать следующие параметры: 1. NDATA –Размерность входных данных 2. NPATTERN –Количество векторов признаков 3. PATTERNFILE-Имя файла с набором векторов признаков 4. TESTVECTOR – Имя файла с тестируемым вектором; 5. RESNETFNAME- Имя выходного файла с матрицами весов обученной сети. TYPE=2_1 Данное значение соответствует внутреннему режиму с проверкой одного из векторов из представленной выборки. Для функционирования программы необходимо задать следующие параметры: 1. NDATA –Размерность входных данных 2. NPATTERN –Количество векторов признаков 3. PATTERNFILE -Имя файла с набором векторов признаков 4. NUMBERVECTOR -Номер тестового вектора признаков из заданной выборки TYPE=2_2 При данном значении параметра программа будет функционировать во внутреннем режиме с последовательной проверкой всех векторов (“cross_validation”). Необходимо задать следующие параметры : 1. NDATA -Размерность входных данных 2. NPATTERN –Количество векторов признаков 3. PATTERNFILE -Имя файла с набором векторов признаков NDATA РАЗМЕРНОСТЬ ВЕКТОРОВ ПРИЗНАКОВ Задается размерность векторов признаков, или количество признаков в каждом векторе наблюдений. Этой величине должны соответствовать все входные данные в текущем сеансе работы программы. NPATTERN КОЛИЧЕСТВО ВЕКТОРОВ ПРИЗНАКОВ Этот числовой параметр характеризует объем обучающей выборки и соответствует количеству строк во входном файле PATTERNFILE. PATTERNFILE ИМЯ ФАЙЛА С НАБОРОМ ВЕКТОРОВ ПРИЗНАКОВ Имя файла, содержащего наборы векторов признаков предыстории сейсмических явлений региона с указателями классификатора. TESTVECTOR ИМЯ ФАЙЛА С ТЕСТИРУЕМЫМ ВЕКТОРОМ ПРИЗНАКОВ. Имя файла, содержащего вектор признаков, который необходимо идентифицировать. Файл должен иметь форму строки (числа разделяются пробелами). Количество признаков должно соответствовать переменной NDATA. NETWORKFILE ИМЯ ФАЙЛА С МАТРИЦАМИ ВЕСОВ ПРЕДВАРИТЕЛЬНО ОБУЧЕННОЙ СЕТИ. В этом параметре задано имя файла, содержащего матрицы весов предварительно обученной нейронной сети с фиксированной размерностью входных данных. Файл формируется на предыдущих этапах работы программы. Необходимо учитывать количество признаков NDATA (явно указанных в имени файла, под которые проектировалась нейронная сеть (NDATA соответствует количеству входов сети) и символьную аббревиатуру региона, из которого получена сейсмическая информация. RESNETFNAME ИМЯ ВЫХОДНОГО ФАЙЛА С МАТРИЦАМИ ВЕСОВ ОБУЧЕННОЙ СЕТИ Имя файла, содержащего параметры спроектированной и обученной нейронной сети в данном сеансе эксплуатации программы. В имени файла обязательно следует указывать символьную абревиатуру региона, из которого получена сейсмическая информация и размерность векторов признаков NDATA обрабатываемой информации, чтобы избежать путаницы в интерпретации разных моделей. (Например, norv18.net или isrl9.net). NUMBERVECTOR ПОРЯДКОВЫЙ НОМЕР ВЕКТОРА ПРИЗНАКОВ Этот параметр соответствует номеру вектора признаков (номеру строки в первом столбце матрицы) из файла PATTERNFILE. Этот вектор признаков с указателем классификатора в дальнейшем будет интерпретироваться как тестовый вектор. Он удаляется из всего набора , а оставшиеся NPATTERN-1 векторов будут использованы в качестве обучающей выборки. REPORTFNAME ИМЯ ФАЙЛА ОТЧЕТА Имя файла с результатами работы программы. InitWeigthFunc ФУНКЦИЯ ИНИЦИАЛИЗАЦИИ НАЧАЛЬНЫХ ВЕСОВЫХ КОЭФФИЦИЕНТОВ СЕТИ. InitWeigthFunc=Gauss Начальные матрицы весовых коэффициентов будут выбраны как нормально распределенные случайные величины с математическим ожиданием Alfa и среднеквадратическом отклонении Sigma ( N[Alfa,Sigma]). InitWeigthFunc=Random Начальные матрицы весовых коэффициентов будут выбраны как равномерно распределенные случайные величины в диапазоне [-Constant,Constant]. (Значение по умолчанию – InitWeigthFunc= RandomDistribution[-3,3], т.е. Constant=3) Constant ДИАПАЗОН РАВНОМЕРНО РАСПРЕДЕЛЕННЫХ СЛУЧАЙНЫХ ВЕЛИЧИН Смотри InitWeigthFunc . Sigma СРЕДНЕКВАДРАТИЧЕСКОЕ ОТКЛОНЕНИЕ НОРМАЛЬНО РАСПРЕДЕЛЕН-НЫХ СЛУЧАЙНЫХ ВЕЛИЧИН Смотри InitWeigthFunc . Alfa МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ НОРМАЛЬНО РАСПРЕДЕЛЕННЫХ СЛУЧАЙНЫХ ВЕЛИЧИН Смотри InitWeigthFunc . WidrowInit NGUYEN-WIDROW ИНИЦИАЛИЗАЦИЯ . Параметр позволяет сформировать начальные весовые коэффициенты по методике предложенной Nguyen и Widrow. Возможные варианты: “Yes” – провести соответствующую инициализацию. “No”- не использовать эту процедуру.(Значение по умолчанию – “No”) Shuffle ПЕРЕМЕШИВАНИЕ ВЕКТОРОВ ПРИЗНАКОВ При значении параметра “Yes” – входные вектора будут предварительно перемешаны. При “No” – вектора будут подаваться на вход сети в той последовательности, в которой они расположены во входном файле (PATTERNFILE). (Значение по умолчанию – “Yes”). Scaling ПРЕДВАРИТЕЛЬНАЯ ОБРАБОТКА ВЕКТОРОВ ПРИЗНАКОВ. Этот параметр служит для использования в рамках программы “nvclass” процедуры масштабирования входных данных. Эта процедура позволяет значительно ускорить процесс обучения нейронной сети, а также качественно улучшает результаты тестирования. Возможные значения параметра: “Yes”,”No”. (Значение по умолчанию – “Yes”). LearnToleranse ТОЧНОСТЬ ОБУЧЕНИЯ. Параметр определяющий качество обучения нейронной сети. При достижении заданной точности ε для каждого вектора признаков из обучающей выборки настройка весовых коэффициентов сети заканчивается и сеть считается обученной. (Значение по умолчанию – 0.1). Eta КОЭФФИЦИЕНТ ОБУЧЕНИЯ НЕЙРОННОЙ СЕТИ. Значение коэффициента задает скорость и качество обучения нейронной сети. Используется для алгоритма обратного распространения ошибки. (Значение по умолчанию–1.0) MaxLearnCycles МАКСИМАЛЬНОЕ КОЛИЧЕСТВО ИТЕРАЦИЙ ОБУЧЕНИЯ Параметр задает количество итераций после которых процесс обучения будет автоматически завершен. (Величина по умолчанию- 2000) Loop КОЛИЧЕСТВО ПОВТОРОВ ОБУЧЕНИЯ. Параметр задает величину полных циклов функционирования программы (целое нечетное число). В каждом цикле формируются начальные матрицы весов производится обучение сети и осуществляется классификация тестового вектора. Результаты всех циклов обрабатываются, и формируется итоговое заключение . (Значение по умолчанию=1). 7.5 Алгоритм работы программы. Алгоритм работы программы зависит от режима, в котором она функционирует. Однако, для всех из них можно выделить базовый набор операций: 1. Инициализация сети; 2. Настройка; 3. Проверка тестовых векторов.

Инициализация

В этом разделе происходит считывание всех данных из соответствующих файлов (файл с примерами обучающей выборки, файл с конфигурацией обученной сети, файл с примерами для тестирования). Затем, в зависимости от режима функционирования, либо происходит инициализация всех весовых коэффициентов сети заданным образом, либо сразу начинается проверка тестовых векторов на обученной заранее нейронной сети, конфигурация которой считана из файла. Настройка. Если выбранный режим предусматривает выполнение алгоритма обучения нейронной сети, то программа, после считывания исходных данных, и начальной инициализации весовых коэффициентов выполняет процедуру их настройки до тех пор, пока не выполнится одно из условий остановки. Либо значение ошибки обучения достигнет желаемого уровня и сеть будет считаться обученной, либо количество итераций обучения превысит предварительно заданное максимальное число. По мере выполнения алгоритма автоматически формируется полный отчет о состоянии сети. Проверка тестовых векторов. На этом этапе происходит тестирование заданных векторов. Причем возможны два варианта: тестируемый вектор может быть считан из файла, а также можно задать номер тестируемого вектора в выборке исходных данных и тогда он не будет использован во время обучения. Результаты проверки записываются в файл отчета. 7.6 Эксплуатация программного продукта. Перед тем, как приступить к эксплуатации программного продукта рекомендуется ознакомиться с форматом данных, в котором должны быть записаны исходная выборка векторов и с основными переменными файла настроек программы. Для корректной работы в дальнейшем желательно придерживаться определенной последовательности действий: 1. Подготовить исходные данные согласно принятом формату. 2. Изменить в соответствии с требованиями определенные поля в файле настроек. 3. Запустить программу. 4. Проанализировать результат, записанный в соответствующем файле. 7.7 Результат работы программы. Для исследований возможностей разработанного программного обеспечения были проведены различные эксперименты, основная цель которых - подобрать значения параметров настройки программы, при которых итоговые результаты ее работы содержали наименьшее количество ошибок идентификации. Методика, по которой оценивалась ошибка классификации, основана на подходе “cross-validation”. Эксперименты проводились на данных, полученных из сейсмограмм, записанных в Норвежской сейсмологической сети. В исходной выборке насчитывалось 86 событий из разных классов, из них соответственно 50 – землетрясений и 36 – взрывов. Исследования проводились для разного числа признаков идентификации, а именно для 18 и 9 размерных векторов признаков. Первая серия экспериментов была проведена на 18 размерных векторах. Структура нейронной сети соответствовала <18,9,1>, где 18 – количество нейронов во входном слое, 9- число нейронов на первом скрытом слое , 1-размерность выхода сети. Увеличение нейронов на скрытом слое не приводило к улучшению результатов, а при уменьшении возникали дополнительные ошибки, в следствии чего такая структура предлагается в качестве оптимальной. Далее представлены описание параметров настройки программы во входных файлах и результаты тестирования. В качестве начальной конфигурации использовались следующие значения настраиваемых параметров в файле “nvclass.inp”: TYPE=2_2 NDATA=18 NPATTERN=86 PatternFile=norv18.pat NetStructure=[18,9,1] WidrowInit=No Shuffle=Yes Scaling=Yes Eta=0.7 MaxLearnCycles=1950 Loop=5 Результаты экспериментов отражают количество ошибок идентификации от различных параметров настройки программы. Для примера рассмотрим влияние процедуры начальной инициализации весовых коэффициентов и точности обучения на ошибку классификации. На рисунках 7.1 и 7.2 едставлены эти результаты.

Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий

Отметим, что более стабильные результаты получаются в случае инициализации весов при помощи нормально распределенных величин. Можно добиться всего лишь 4-5 ошибок из 86, что соответствует ошибке идентификации равной 5-6 процентов. Для 9 размерных векторов признаков была использована следующая структура нейронной сети <9,5,1>, т.е. 5 нейронов на скрытом слое было достаточно для получения хороших результатов. В качестве примера приведем исследования аналогичные тем, которые описаны выше.(Рис. 7.3, 7.4).

Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий

Последнюю диаграмму можно представить в виде.

Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий

Уже сейчас можно сделать вывод, что при использовании не всего набора признаков идентификации, а некоторой части признаков результаты заметно улучшаются. Причем для случая 9 –размерных признаков особую роль процедура начальной инициализации не играет. Представленные эксперименты не отражают полной картины о возможностях применения нейронных сетей для идентификации типа сейсмического события, но они экспериментально подтверждают эффективность нейросетевых технологий для решения этой задачи. 8. Заключение Проведенные исследования подтвердили эффективность применения нейросетевых технологий для идентификации типа источника сейсмических события. При определенных настройках нейронной сети можно добиться результатов, когда вероятность правильного распознавания составляет 96.5%. Ошибки возникают только на 3 векторах из 86. Если сравнивать полученные результаты с теми, которые можно достичь при использовании стандартных методов классификации, один из вариантов которых приведен в разделе 4, то они практически повторяют друг друга. И статистика и нейронные сети ошибаются одинаковое количество раз, причем на одних и тех же векторах. Из 86 событий статистические методы ошибаются на 3 векторах (1–землетрясение и 2-взрыва), и нейросетевой классификатор также ошибается именно на этих векторах. Соответственно пока нельзя говорить о каком-то превосходстве одного метода над другим. Заметим, что в настоящих исследованиях были использованы довольно общие и универсальные технологии нейроинформатики (многослойные сети применяются для решения многих задач, но это не всегда самая оптимальная нейроструктура), а применение более узких и специализированных нейронных парадигм в некоторых случаях позволяет получать лучшие результаты. В частности, при помощи нейропакетов на тех же данных были поставлены ряд экспериментов над сетями Кохонена, описанными в разделе 5.4. Результаты показали, что количество ошибок идентификации в большинстве случаев составляет 3-4 вектора, т.е. практически совпадают с результатами, полученными на многослойных сетях и классических методах. Итак, подводя итог всему выше сказанному, выделим основные результаты проведенных исследований: 1. Нейронные сети позволяют успешно решать проблему определения типа источника сейсмического события. 2. Новое решение не уступает по эффективности традиционным методам, использующимся в настоящее время для решения исследуемой задачи. 3. Возможны улучшения технических характеристик нейросетевого решения. В качестве дальнейших исследований, направленных на повышение эффективности нейросетевого решения, можно предложить следующие: · Для многослойных сетей прямого распространения решить проблему начальной инициализации весовых коэффициентов. Если предположить, что существует неявная зависимость между матрицей начальных весовых коэффициентов и конкретной реализацией выборки данных, предназначенной для обучения нейронной сети, то можно объяснить те случаи, когда результат несколько хуже, чем в большинстве экспериментов. Возможно, реализация алгоритма учитывающего распределение исходных данных позволит получать более стабильные результаты. · Для этих же сетей можно использовать другие методы обучения, позволяющих с большей вероятностью находить глобальный минимум функции ошибки. · Исследование других парадигм и разработка специальной модели, предназначенной конкретно для решения данной задачи могут привести к улучшению полученных результатов. Список литературы. 1. Уоссермен Ф. “Нейрокомпьютерная техника” - М.: Мир,1992. 2. Горбань А.Н., Дубинин-БарковскийВ.Л., Кирдин А.Н. “Нейроинформатика” СП “Наука” РАН 1998. 3. Горбань А.Н., Россиев Д.А. “Нейронные сети на персональном компьютере” СП “Наука” РАН 1996. 4. Ежов А.А., Шумский С.А. “Нейрокомпьютинг и его применение в экономике и бизнесе”.1998. 5. Bishop C.M. “Neural Networks and Pattern Recognition.” Oxford Press. 1995. 6. Goldberg D. “Genetic Algorithms in Machine Learning, Optimization, and Search.” – Addison-Wesley,1988. 7. Fausett L.V. “Fundamentals of Neural Networks: Architectures, Algorithms and Applications”, Prentice Hall, 1994. 8. Kohonen T. “Self-organization and Associative Memory”, Berlin: Springer- Verlag, 1989. 9. Kushnir A.F., Haikin L.M., Troitsky E.V. “Physics of the earth and planetary interiors” 1998. 10.Копосов А.И., Щербаков И.Б., Кисленко Н.А., Кисленко О.П., Варивода Ю.В. Отчет по научно-исследовательской работе "Создание аналитического обзора информационных источников по применению нейронных сетей для задач газовой технологии"; и др., ВНИИГАЗ, 1995, www.neuralbench.ru 11.Fukunaga K., Kessel D.L., “Estimation of classification error”, IEEE Trans. Comp. C 20, 136-143. 1971. 12.Деев А.Д., “Применение статистического дискриминационного анализа и его ассимптотического расширения для сравнения различных размерностей пространства.”, РАН 195, 759-762. 1970. Приложение. 1. Пример выборки сейсмограмм. В левом столбце представлены сейсмограммы, описывающие взрывы, а в правом – землетрясения. Диплом: Классификация сейсмических сигналов на основе нейросетевых технологий 2. Пример файла с векторами признаков. Представлена выборка из файла 9_Norv.txt, содержащего 9 размерные вектора признаков.

NumOfPattern: 86

PatternDimens: 9 1 -14.3104 -13.2561 -13.4705 -13.4306 -14.1015 -13.3503 -13.3805 - 13.7369 -0.3494 0 2 -14.6881 -13.6349 -12.9050 -13.4323 -14.2279 -13.4720 -13.2117 - 13.5791 -1.2801 0 3 -14.4036 -14.1745 -13.8014 -12.7209 -14.6283 -13.9589 -13.4649 - 12.9716 -0.8250 0 . 55 -14.3693 -13.4362 -11.4072 -12.3129 -14.8612 -13.3480 -12.8517 - 13.4014 -0.7738 0 56 -14.2856 -12.6858 -13.8215 -13.4282 -14.0982 -13.1587 -13.2792 - 13.7852 -1.3442 0 57 -14.4822 -13.1141 -13.7787 -13.4466 -13.6761 -13.2969 -13.6033 - 13.9252 -0.6642 1 58 -13.5522 -13.1302 -13.5444 -14.1471 -13.2994 -13.2368 -13.9776 - 14.4295 -0.9973 1 59 -14.8524 -11.9846 -13.7231 -14.2496 -13.4809 -13.0515 -13.8950 - 14.3923 -1.8284 1 . 85 -14.5994 -13.6920 -12.8539 -13.7629 -14.1699 -13.2075 -13.3422 - 13.6788 -11.9537 1 86 -14.3821 -13.6093 -12.8677 -13.7788 -14.1260 -13.3246 -13.2966 - 13.6453 -11.4304 1 3. Файл с настройками программы # # Common parameters for programm "NVCLASS" # # # # # # # # # # # # # # # # # # # # # # 1_1 - OnlyTest mode , 1_2 - TestAfterLearn mode, # 2_1 - CheckOneVector , 2_2 - CrossValidation mode. # TYPE=2_2 NDATA=9 NPATTERN=86 PatternFile=9_Norv.txt NTEST=10 TestVector=vector.tst NetworkFile=9.net ResNetFname=9.net NumberVector=57 ReportFile=Report.txt Debug=Yes # # Next parameters was define in result experiments and if you will # change it, the any characteristics of Neural Net may be not optimal # (since may be better then optimal). # # # # # # # # # # # # # 'NetStructure' must be: [NDATA,NUNIT1,1] (NOUT=1 always) # value 'AUTO'-'NetStructure' will be define the programm.(See help). # example : [18,9,1], or [18,18,1], or [9,9,5,1] NetStructure=[18,12,1] # may be: [Gauss] or [Random] InitWeigthFunc=Gauss Constant=3 Alfa=0 Sigma=1.5 Widrow=No Shuffle=Yes Scaling=Yes LearnTolerance=0.1

Eta=1

MaxLearnCycles=50 Loop=3 #end of list 4. Пример файла отчета. NVCLASS report - Wed Jun 02 15:58:02 1999 Type = 1_2 Neural Net - <18,12,1> PatternFile - vect.txt Test Vector(s) - vector.tst ResNetFname - 12.net LearnTolerance = 0.10 InitialWeigthFunc = Gauss[ 0.0, 1.5] < Loop 1 > Learning cycle result: NumIter = 5 NumLE = 3 Error vector(s): 58, 59, 63, +-----+------+--------+------+ | N | ID | Result |Target| +-----+------+--------+------+ | 1 | 24 | 0.1064 | 0 | | 2 | 25 | 0.9158 | 1 | | 3 | 26 | 0.0452 | 0 | | 4 | 27 | 0.0602 | 0 | | 5 | 28 | 0.0348 | 0 | | 6 | 29 | 0.0844 | 0 | | 7 | 30 | 0.1091 | 0 | | 8 | 31 | 0.0821 | 0 | | 9 | 32 | 0.0298 | 0 | | 10 | 33 | 0.2210 | 0 | +-----+------+--------+------+ < Loop 2 > Learning cycle result: NumIter = 5 NumLE = 5 Error vector(s): 33, 34, 55, 58, 63, +-----+------+--------+------+ | N | ID | Result |Target| +-----+------+--------+------+ | 1 | 24 | 0.1279 | 0 | | 2 | 25 | 0.9929 | 1 | | 3 | 26 | 0.0960 | 0 | | 4 | 27 | 0.1463 | 0 | | 5 | 28 | 0.1238 | 0 | | 6 | 29 | 0.1320 | 0 | | 7 | 30 | 0.1478 | 0 | | 8 | 31 | 0.1235 | 0 | | 9 | 32 | 0.0740 | 0 | | 10 | 33 | 0.5140 | 1 | +-----+------+--------+------+ 5. Файл описания функций, типов переменных и используемых библиотек “nvclass.h”. /* * --- Neuro classificator--- * * Common defines */ #include <stdio.h> #include <ctype.h> #include <stdlib.h> #include <string.h> #include <stdarg.h> #include <time.h> #include <math.h> //#include <unistd.h> //#include <sys/file.h> #include <fcntl.h> #define DefName "nvclass.inp" #define MAXDEF 100 #define MAXLINE 256 #define NMAXPAT 100 #define NMXINP 20 #define NMXUNIT 20 #define CONT 0 #define EXIT_OK 1 #define EXIT_CNT 2 #define RESTART 911 #define MAXEXP 700 /* Max arg exp(arg) without error 'OVERFLOW' */ #define Random 10 #define Gauss 20 #define OK 0 #define Error 1 #define Yes 77 #define No 78 #define Min 0 /* Find_MinMax(...) */ #define Max 1 #define TYPE_ONE 21 #define TYPE_TWO 22 #define TYPE_THREE 23 #define TYPE_FOUR 24 int NDATA = 0; int NUNIT1 = 0; int NUNIT2 = 0; int NUNIT3 = 0; int NOUT = 1; int NPATTERN = 0; /* Number of input pattern*/ int NWORK = 0; /* Number of work pattern*/ int NTEST= 0; /* Number of test pattern*/ int result; int STOP = 0; int NumOut = 250; /* Number of itteration, after which show result in debugfile. */ int Num_Iter=10;/* The parameters requred in the procecc of */ float Percent=0.25; /* dinamic lerning with change 'eta' */ float LearnTolerance = 0.10; float TestTolerance = 0.5; float MAX_ERR=0.00001; /* min error */ float eta = 1.0; /* learning coefficient*/ float MIN_ETA=0.000001; float **Array_MinMax; int *Cur_Number; float W1[NMXINP][NMXUNIT]; float W2[NMXUNIT]; float PromW1[NMXINP][NMXUNIT]; float PromW2[NMXUNIT]; float PromW1_OLD[NMXINP][NMXUNIT]; float PromW2_OLD[NMXUNIT]; float Err1[NMXUNIT]; float Err2; float OLD_ERROR; float GL_Error=0.0; float Out1[NMXUNIT]; float Out2; char NetStr[20]="Auto"; /* String with pattern of Net Structure*/ int Type = TYPE_THREE; /* Enter the mode of work of programm */ int InitFunc = Random; /* Random [=10] weigth will RandomDistribution Gauss [=20] - ... GaussianDistributon */ float Constant = 1; /* RandomDistribution [-Constant,Constant]*/ float Alfa = 0; /* GaussianDistribution [Alfa,Sigma]*/ float Sigma = 1; /* ... */ int Widrow = No; /* Nguyen-Widrow initialization start weigth*/ int Loop = 1; /* Number repeat of Learning cycle */ char *PatternFile; /* File with input patterns*/ char *TestVector; char *ReportFile="report.txt"; /* name of report file */ char *NetworkFile; /* Name of input NetConfig file */ char *ResNetFname; /* Name of output NetConfig file */ int DEBUG = Yes; /* if 'Yes' then debug info in the DebugFile */ char *DebugFile="Logfile.log"; /* Name of the debug file*/ int NumberVector = 0; /* Number of TEST vector */ int Shuffle = Yes; /* Flag - shuffle the input vectors*/ int Scaling = Yes; /* Scaling input vector */ int MaxLearnCycles = 1999; /* Max number of learning iteration */ FILE *Dfp; /* Debug file pointer */ FILE *Rfp; /* Report file pointer*/ typedef struct Pattern { int ID; /* ID number this vector in all set of pattern */ float *A; /* pattern (vector) A={a[0],a[1],...,a[NDATA]} */ float Target; /* class which this vector is present*/ } PAT; PAT *Input; PAT *Work; PAT *Test; /* lines in defaults file are in the form "NAME=value" */ typedef struct Default { char *name; /* name of the default */ char *value; /* value of the default */ } DEF; /* structure of statistics info about one test vector */ typedef struct Statistic { int ID; /* Primery number from input file */ float Target; float TotalRes; /* Total propability */ int Flag; /* Flag = 1, if vector was error and = 0 in over case */ float *result; /* Result of testing vector on current iteration */ int *TmpFlag; /* analog 'Flag' on current itteration */ int *NumIter; /* Number iteration of learning on which Learning cycle STOPED */ int **NumLE; /* Error vectors after cycle of learning was test*/ } STAT; /* structure of the some result of learning cycle */ typedef struct ResLearning { int NumIter; int LearnError[NMAXPAT+1]; /* A[0]-count of error, A[1]-ID1, A[2]-ID2,... A[NMAXRL]-ID?.*/ } RL; /* function prototypes */ void OnlyTestVector(void); void TestAfterLearn (void); void CheckOneVector ( void ); void CrossValidation ( void ); DEF **defbuild(char *filename); DEF *defread(FILE *fp); FILE *defopen (char *filename); char *defvalue(DEF **deflist, const char *name); int defclose(FILE *fp); void defdestroy(DEF **, int); void getvalues(void); void Debug (char *fmt, ...); void Report (char *fmt, ...); void Widrow_Init(void); int Init_W( void ); float RavnRaspr(float A, float B); float NormRaspr(float B,float A); void ShufflePat(int *INP,int Koll_El); float F_Act(float x); float Forward (PAT src); int LearnFunc (void); int Reset (float ResErr, int Cnt, int N_Err); void Update_Last (int n, float Total_Out); void Update_Prom1 (int n); void Prom_to_W (void); void Update_All_W (int num, float err_cur ); void Init_PromW(void); void Prom_to_OLD(void); int CheckVector(float Res, PAT src); int *TestLearn(int *src); RL FurtherLearning(int NumIteration, float StartLearnTolerans, float EndLearnTolerans, RL src); STAT *definestat (PAT src); STAT **DefineAllStat (PAT *src,int Num); void FillStatForm (STAT *st, int iteration, float res, RL lr); void FillSimpleStatForm (STAT *st, float res); void destroystat ( STAT *st, int param); void DestroyAllStat (STAT **st, int Num); void PrintStatHeader(void); void printstat(STAT *st); void PrintStatLearn(RL src); void PrintTestStat(STAT **st, int len); void PrintErrorStat (STAT **st,int Len); int DefineNetStructure (char *ptr); void getStructure(char buf[20]); PAT patcpy (PAT dest, PAT src); PAT* LocPatMemory(int num); void ReadPattern (PAT *input, char *name,int Len); void FreePatMemory(PAT* src, int num); void ShowPattern (char *fname, PAT *src, int len); void ShowVector(char *fname,PAT src); float getPatTarget (float res); PAT* DataOrder (PAT* src,int Len, int Ubit, PAT* dest, PAT* test); void FindMinMax (PAT *src,int Dimens, int Num_elem, float **Out_Array); void ConvX_AB_01(PAT src); int *DefineCN (int len); int getPosition (int Num, int *src, int Len); void DestroyCN (int *src); void ShowCurN (int LEN); float **LocateMemAMM(void); void FreeAMM (float **src); void WriteHeaderNet(char *fname, float **src); void WriteNet (char *fname,int It); void ReadHeaderNet(char *fname, float **src); int ReadNet (char *fname, int It); FILE *OpenFile(char *name); int CloseFile(FILE *fp); /* End of common file */ 6. Файл автоматической компиляции программы под Unix -“Makefile”. CC= cc LIBS= -lm OBJ= nvclass.o nvclass: $(OBJ) $(CC) -o nvclass $(LIBS) $(OBJ) nvclass.o: nvclass.c 7. Основной модуль - “nvclass.с” /* * Neuron Classificator ver 1.0 */ #include "common.h" /* ========================= * MAIN MODULE * ========================= */ void main (int argc, char *argv[]) { int i; char buf[MAXLINE], PrName[20], *ptr; time_t tim; time(&tim); /* UNIX Module */ Dfp = OpenFile(DebugFile); strcpy(buf,argv[0]); ptr = strrchr(buf,'/'); ptr++; strcpy(PrName,ptr); Debug ("\n\n'%s' - Started %s",PrName,ctime(&tim)); getvalues(); Rfp = OpenFile(ReportFile); DefineNetStructure(NetStr); /* NetStr string from input file */ getStructure(buf); Debug ("\nNeyral net %s",buf); Input = LocPatMemory(NPATTERN); Work = LocPatMemory(NPATTERN); Array_MinMax = LocateMemAMM(); Cur_Number = DefineCN (NPATTERN); printf("\nMetka - 1"); if (Type == TYPE_ONE) OnlyTestVector (); if (Type == TYPE_TWO) TestAfterLearn (); if (Type == TYPE_THREE) CheckOneVector (); if (Type == TYPE_FOUR) CrossValidation(); time(&tim); Debug ("\n\n%s - Normal Stoped %s",PrName,ctime(&tim)); CloseFile(Dfp); CloseFile(Rfp); FreeAMM (Array_MinMax); DestroyCN (Cur_Number); FreePatMemory(Input,NPATTERN); FreePatMemory(Work, NPATTERN); } /* * ^OnlyTestVectors - read net from (NetworkFile) and test the TestVector(s) */ void OnlyTestVector(void) { char buf[MAXLINE+1]; STAT **st, *stat; int i,j; float Res; Debug ("\nOnlyTestVector proc start"); Debug ("\n NPATTERN = %d",NPATTERN); Debug ("\n NTEST = %d",NTEST); Test = LocPatMemory(NTEST); ReadPattern(Test,TestVector, NTEST); /* ShowPattern ("1.tst",Test,NTEST);*/ PrintStatHeader(); st = DefineAllStat (Test,NTEST); ReadHeaderNet(NetworkFile,Array_MinMax); if (Scaling == Yes) { for (i=0;i<NTEST;i++) ConvX_AB_01(Test[i]); } for (i=0; i < Loop ; i++) { Debug("\n----/ STEP = %d /-----",i+1); Report("\n < Loop %d > ",i+1); ReadNet(NetworkFile,i+1); for (j=0;j<NTEST;j++) { Res=Forward(Test[j]); CheckVector(Res,Test[j]); FillSimpleStatForm(st[j],Res); } PrintTestStat(st,NTEST); } DestroyAllStat (st,1); FreePatMemory(Test,NTEST); } . /* --------------------------------- * Debug to LOG_FILE and to CONSOLE */ /* debug for UNIX */ void Debug (char *fmt, ...) { va_list argptr; int cnt=0; if ((Dfp != NULL) && (DEBUG == Yes)) { va_start(argptr, fmt); vfprintf(Dfp, fmt, argptr); fflush (Dfp); va_end(argptr); } } void Report (char *fmt, ...) { va_list argptr; int cnt=0; if (Rfp != NULL) { va_start(argptr, fmt); vprintf (fmt,argptr); vfprintf(Rfp, fmt, argptr); fflush (Rfp); va_end(argptr); } } /* debug for DOS */ /* void Debug (char *fmt, ...) { FILE *file; va_list argptr; if (DEBUG == Yes) { if ((file = fopen(DebugFile,"a+"))==NULL) { fprintf(stderr, "\nCannot open DEBUG file.\n"); exit(1); } va_start(argptr, fmt); vfprintf(file, fmt, argptr); va_end(argptr); fclose (file); } } void Report (char *fmt, ...) { FILE *file; va_list argptr; if ((file = fopen(ReportFile,"a+"))==NULL) { fprintf(stderr, "Cannot open REPORT file.\n"); exit(1); } va_start(argptr, fmt); vfprintf(file, fmt, argptr); vprintf(fmt,argptr); va_end(argptr); fclose (file); } */ /* * ^ReadPattern */ void ReadPattern (PAT *input, char *name, int Len) { int i=0, j=0, id, TmpNp=0, TmpNd=0, Flag=0; char *buf1="NumOfPattern:"; char *buf2="PatternDimens:"; char str[40],str1[10]; PAT Ptr; FILE *DataFile; float tmp; Debug ("\nReadPattern(%s,%d) - started",name,Len); Ptr.A =(float*) malloc (NDATA * sizeof(float)); if ((DataFile = fopen(name,"r")) == NULL ) { Debug("\nCan't read the data file (%s)",name); fclose(DataFile); exit (1); } if ((strcmp(name,TestVector)) == 0) /* if read TestVector, then read */ Flag = 1; /* only ID and A[i]. (NO Target) */ fscanf(DataFile,"%s %s",str,str1); if ((strcmp(str,buf1))==0) TmpNp = atoi (str1); Debug("\nNumOfPattern = %d",TmpNp); fscanf(DataFile,"%s %s",str,str1); if ((strcmp(str,buf2))==0) TmpNd = atoi (str1); Debug("\nPatternDimens = %d",TmpNd); if (TmpNp != Len) Debug ("\n\tWARNING! - NumOfPattern NOT EQUAL Param (%d != %d)",TmpNp,Len); if (TmpNd != NDATA) Debug ("\n\tWARNING! - PatternDimens NOT EQUAL NDATA (%d != %d)",TmpNd,NDATA); for (i = 0; i < Len; i++) {fscanf(DataFile,"%d",&id); Ptr.ID = id; for (j=0; j < NDATA; j++) { fscanf (DataFile,"%f",&tmp); Ptr.A[j]=tmp; } if ( Flag ) tmp = -1; else fscanf(DataFile,"%f",&tmp); Ptr.Target = tmp; input[i]=patcpy(input[i],Ptr); } fclose(DataFile); } /* * ^LocPatMemory - locate memory for (PAT *) */ PAT* LocPatMemory(int num) { int i; PAT *src; src = (PAT *) malloc (num * sizeof(PAT)); for (i=0; i< num; i++) {src[i].ID = -1; src[i].A = (float*) malloc (NDATA * sizeof(float)); src[i].Target = -1.0; } return (src); } void FreePatMemory( PAT* src, int num ) { int i; for (i=0;i<num;i++) free (src[i].A); free (src); } /* * Copies pattern src to dest. * Return dest. */ PAT patcpy (PAT dest, PAT src) { int i; dest.ID = src.ID; for (i=0;i<NDATA;i++) dest.A[i] = src.A[i]; dest.Target = src.Target; return dest; } ... /* Random distribution value * rand() return x from [0,32767] -> x/32768 * -> x from [0,1] */ float RavnRaspr(float A, float B) {float x; x = (B-A)*rand()/(RAND_MAX+1.0) + A; return x; } float NormRaspr(float A,float B) { float mat_ogidanie=A, Sigma=B; float Sumx=0.0, x; int i; for (i=0;i<12;i++) Sumx = Sumx + RavnRaspr(0,1); /* from R[0,1] -> N[a,sigma]*/ x = Sigma*(Sumx-6) + mat_ogidanie; return x; } int Init_W ( void ) { int i,j; float A, B; time_t t,t1; t = time(NULL); t1=t; /* restart random generator*/ while (t==t1) srand((unsigned) time(&t)); if (InitFunc == Random) { A = -Constant; B = Constant; Debug ("\nInit_W () --- Start (%ld))",t); Debug ("\n InitFunc=Random[%4.2f,%4.2f]",A,B); for(i=0; i<=NDATA; i++) for(j=0; j<NUNIT1; j++) W1[i][j]=RavnRaspr(A,B); for(j=0; j <= NUNIT1; j++) W2[j]=RavnRaspr(A,B); } if (InitFunc == Gauss) { A = Alfa; B = Sigma; Debug ("\nInit_W () --- Start (%ld))",t); Debug ("\n InitFunc=Gauss[%4.2f,%4.2f]",A,B); for(i=0; i<=NDATA; i++) for(j=0; j<NUNIT1; j++) W1[i][j] = NormRaspr(A,B); for(j=0; j <= NUNIT1; j++) W2[j] = NormRaspr(A,B); } if ( Widrow == Yes ) Widrow_Init(); Debug ("\nInit_W - sucsefull "); return OK; } /* LearnFunc */ int LearnFunc (void) { int i, j, n, K, NumErr=0; int num=0; float err_cur=0.0, Res=0; time_t tim; float ep[NMAXPAT]; GL_Error=1.0; time(&tim); Debug ("\nLearnFunc () --- Started"); Debug ("\n eta = %4.2f",eta); Debug ("\n LearnTolerance = %4.2f",LearnTolerance); Init_PromW(); do { num++; err_cur = 0.0; NumErr = 0; for (n = 0; n < NWORK; n++) { K = Cur_Number[n]; Res=Forward(Work[K]); ep[n]=fabs(Res-Work[K].Target); if (ep[n] > LearnTolerance) { NumErr++; Init_PromW(); Update_Last(K, Res); Update_Prom1(K); Prom_to_W(); } err_cur = err_cur + (ep[n]*ep[n]); } err_cur=0.5*(err_cur/NWORK); result = Reset(err_cur, num, NumErr); if ((num % NumOut)==0) Debug("\nStep :%d NumErr :%d Error:%6.4f",num,NumErr,err_cur); } while (result == CONT || result == RESTART); Debug("\nStep :%d NumErr :%d Error:%6.4f",num,NumErr,err_cur); return num; }

Страницы: 1, 2, 3


© 2010 Собрание рефератов