Нейрокомпьютинг и его применения в экономике и бизнесе

         

Извлечение правил


Даже если параметры, описывающие признаки классифицируемых объектов, представляют собой непрерывные величины, для их представления можно использовать бинарные нейроны и принцип кодирования типа термометра. При таком способе кодирования область изменения параметра делится на конечное число

интервалов и для представления всех значений, ле-жащих в m-м интервале используется следующее состояние
бинарных нейронов:
.


Рис. 9.1.  . Пример кодировки непрерывной величины с помощью бинарных нейронов и принципа термометра. Интервал (0, 50) разбит на 5 равных частей. Значение 34.0 попадает в 4-й интервал. При этом состояния первых 4 из 5 кодирующих бинарных нейронов равно единице, а 5-го - нулю.

При наличии многих непрерывных входов число заменяющих их бинарных нейронов может стать весьма большим. Однако, прореживание связей приводит к получению относительно ком-пактной сети. Но и для нее выделение классификационных правил представляет проблему. Если нейрон имеет d входов, то число различных бинарных векторов, которые он может обра-ботать составляет

, а это большая величина даже при малом d. Далее, состояния нейрона скрытого слоя являются непрерывными, что также является препятствием для извлечения пра-вил. Для его устранения все значения, которые принимают нейроны скрытого слоя кластеризу-ются и заменяются значениями, определяющими центры кластеров. Число таких кластеров выбирается небольшим. После такой дискретизации активностей промежуточных нейронов производится проверка точности классификации объектов сетью. Если она остается приемле-мой, то подготовка к извлечению правил заканчивается. Приведем формальное описание алго-ритма дискретизации значений активности нейронов скрытого слоя

Алгоритм дискретизации

  1. Выбирается значение параметра
    , управляющего числом кластеров активности нейрона скрытого слоя. Пусть
    - активность этого нейрона при предъявлении сети первого вектора обучающего набора. Положим число кластеров
    , положение кластера
    .
  2. Для всех векторов обучающего набора
    • определяется активность нейрона скрытого слоя
    • если существует индекс
      такой что




      и



      то
      иначе





  3. Заменить
    на среднее значение активаций нейрона, объединенных в один и тот же кластер:
    .
  4. Проверить точность классификации объектов сетью при замене истинных значений активации нейрона скрытого слоя на
    .
  5. Если точность классификации оказалась ниже заданного значения, то уменьшить значение
    и вернуться к шагу 1.


Рассмотрим приведенный в (Lu, Setiono and Liu, 1995) пример, в котором прореженная сеть содержала три нейрона скрытого слоя, дискретизация активности которых была проведена при значении параметра
. Ее результаты отражены в таблице 9.1.



Таблица 9.1. Дискретизация состояний нейронов скрытого слоя нейрон скрытого слоячисло кластеровдискретное значение активности
13(-1,0,1)
22(0, 1)
33(-1, 0.24, 1)


В этой работе решалась задача разбиения объектов на два класса. На ее примере мы и рассмотрим последовательность извлечения правил. После дискретизации значений активности нейронов скрытого слоя, передача их воздействий выходным классифицирующим нейронам описывалась параметрами, приведенными в таблице 9.2.



Таблица 9.2. Связь дискретных значений активности нейронов скрытого и выходного слоев. h1h2h3o1o2
-11-10.920.08
-1110.001.00
-110.240.010.99
-10-11.000.00
-1010.110.89
-100.240.930.07
11-10.001.00
1110.001.00
110.240.001.00
10-10.890.11
1010.001.00
100.240.001.00
01-10.180.82
0110.001.00
010.240.001.00
00-11.000.00
0010.001.00
000.240.180.82


Исходя из значений, приведенных в этой таблице, после замены значений выходных нейронов ближайшими к ним нулями или единицами, легко получить следующие правила, связывающие активности нейронов скрытого слоя с активностями классифицирующих нейронов

  • правило 1 если h2=0,h3=-1, то o1=1, o2=0 (объект класса А)
  • правило 2 если h1=-1,h2=1,h3=-1, то o1=1, o2=0 (объект класса А)
  • правило 3 если h1=-1,h2=0,h3=0.24, то o1=1, o2=0 (объект класса А)
  • правило 4 в остальных случаях o1=1, o2=0 (объект класса В)


Эти правила являются вспомогательными, поскольку нам необходимо связать значения состояний классифицирующих выходных нейронов со входами нейронной сети. Структура данной сети после прореживания связей и нейронов изображена на следующем рисунке.




Рис. 9.2.  Двухслойная сеть после прореживания связей и входных нейронов. Положительные связи выделены.

Связь между активностями входных бинарных нейронов и нейронов скрытого слоя для данной сети определяется следующими правилами:

Для первого нейрона скрытого слоя:





Для второго нейрона скрытого слоя:






Для третьего нейрона скрытого слоя:








Комбинируя эти связи с правилами, связывающими активности нейронов скрытого слоя с ак-тивностями выходных нейронов, получим окончательные классифицирующие правила.










Приведенные выше правила определяют принадлежность объекта первому классу (А). Некото-рые из них могут оказаться нереализуемыми, если учесть, что состояния бинарных нейронов кодируют соответствующие непрерывные величины с помощью принципа термометра.

Количество правил, полученных в данном случае, невелико. Однако, иногда даже после проце-дуры прореживания некоторые нейроны скрытого слоя могут иметь слишком много связей с входными нейронами. В этом случае извлечение правил становится нетривиальным, а если оно и осуществлено, то полученные правила не так просто понять. Для выхода из этой ситуации для каждого из "проблемных" нейронов скрытого слоя можно использовать вспомогательные двух-слойные нейронные сети. Во вспомогательной сети количество выходных нейронов равно чис-лу дискретных значений соответствующего "проблемного" нейрона скрытого слоя, а входными нейронами являются те, которые в исходной прореженной сети связаны с данным нейроном скрытого слоя.


Рис. 9.3.  . Третий нейрон скрытого слоя связан с максимальным числом входов. Число дискретных значений его активности равно 3. Для облегчения процедуры выделения классифицирующих правил этот нейрон может быть заменен вспомогательной сетью с тремя выходными нейронами, кодирующими дискретные значения активности.

Обучающие примеры для вспомогательной сети группируются согласно их дискретизованным значениям активации "проблемного" нейрона.


Для
дискретных значений
всем обучающим примерам, соответствующим уровню активации
, ставится в соответствие
-мерный целевой вектор, состоящий из нулей и одной единицы в
-й позиции. Вспомогательная сеть содержит свой слой скрытых нейронов. Она обучается и прореживается тем же способом, что и основная нейронная сеть. Метод извлечения правил применяется к каждой вспомогатель-ной сети, для того чтобы связать значения входов с дискретными значениями активации про-блемных нейронов скрытого слоя оригинальной сети. Подобный процесс осуществляется ре-курсивно для всех скрытых нейронов с большим числом входов до тех пор пока это число не станет достаточно малым или же новая вспомогательная сеть уже не сможет быть далее упро-щена.


Содержание раздела