Документ взят из кэша поисковой машины. Адрес оригинального документа : http://top.sinp.msu.ru/lev/phd/node27.html
Дата изменения: Fri Aug 3 16:57:55 2001
Дата индексирования: Sat Feb 2 21:40:50 2013
Кодировка: koi8-r
Выбор оптимальных кинематических переменных next up previous contents
Next: Проверка нейронных сетей Up: Метод нейронных сетей Previous: Метод нейронных сетей   Contents

Выбор оптимальных кинематических переменных

Одним из основных этапов применения метода нейронных сетей является выбор кинематических переменных, составляющих входной вектор. Введение дополнительных переменных потенциально увеличивает обьем информации, используемой при разделении сигнальных и фоновых событий, но также увеличивает размерность пространства для минимизации функционала ошибок (4.5) и, следовательно, делает более сложным процесс нахождения минимума. Фактически процедура выбора входных переменных состоит в кодировании полного обьема информации по различию сигнальных и фоновых событий, и с использованием наименьшего числа переменных.

Был предложен метод нахождения оптимального набора кинематических переменных, основанный на различиях в структуре матричных элементов сигнальных и фоновых процессов. Метод описан в работах [85], [21], [22]. Полезное наблюдение, на котором основан использованный метод, состоит в том, что основной вклад в сечение процессов идет от интегрирования в области фазового пространства, близкого к сингулярностям матричных элементов, если таковые присутствуют для конкретного процесса. Если для сигнальных и фоновых процессов позиция сингулярностей в фазовом пространстве отличается, то наиболее чувствительными к различиям фона и сигнала будут переменные, наиболее точно отражающие различие в позиции сингулярностей.

Существует два основных типа сингулярностей в знаменателях фейнмановских диаграмм, это s-канальные $ M_{f1,f2}^2 = (p_{f1} + p_{f2})^2$ и t-канальные $ \hat{t}_{i,f} = (p_f-p_i)^2$ сингулярности. Здесь $ p_f$ - четырех-импульс конечной частицы (партона), $ p_i$ - четырех-импульс начального партона.

Figure 4.2: Типичные фейнмановские диаграммы для $ Wjj$ процесса.
=0.6pt 0.7 0.6
\begin{picture}(100,60)(0,0)
\Text(13.9,39.8)[r]{$u$}
\ArrowLine(14.7,39.8)(38.7...
...+$}
\DashArrowLine(62.7,20.8)(86.7,11.4){3.0}
\Text(50,0)[b] {2.1}
\end{picture}

\begin{picture}(100,60)(0,0)
\Text(13.9,49.3)[r]{$u$}
\ArrowLine(14.7,49.3)(62.7...
...+$}
\DashArrowLine(62.7,11.4)(86.7,11.4){3.0}
\Text(50,0)[b] {2.2}
\end{picture}

\begin{picture}(70,60)(0,0)
\Text(13.5,49.3)[r]{$d$}
\ArrowLine(14.0,49.3)(28.0,...
...]{$\bar u$}
\ArrowLine(56.0,11.4)(42.0,20.8)
\Text(35,0)[b] {2.3}
\end{picture}

Figure 4.3: Типичные фейнмановские диаграммы для QCD процесса.
=0.4pt 0.7 0.4
\begin{picture}(160,80)(0,0)
\Text(12.8,69.1)[r]{$\bar u$}
\ArrowLine(102.2,69.1...
...[l]{$d$}
\ArrowLine(102.2,11.5)(146.2,11.5)
\Text(80,-5)[b] {3.1}
\end{picture}

\begin{picture}(160,80)(0,0)
\Text(12.8,59.5)[r]{$\bar u$}
\ArrowLine(58.2,59.5)...
...)[l]{$d$}
\ArrowLine(102.2,21.1)(146.2,11.5)
\Text(80,0)[b] {3.2}
\end{picture}

\begin{picture}(160,80)(0,0)
\Text(12.8,59.5)[r]{$\bar u$}
\ArrowLine(58.2,59.5)...
...)[l]{$d$}
\ArrowLine(102.2,21.1)(146.2,11.5)
\Text(80,0)[b] {3.3}
\end{picture}

Позиция сингулярности определяется знаменателем соответствующего фейнмановского пропагатора. Переменные, в которых видны сингулярности, названы сингулярными переменными. Например, в исследуемых сигнальных процессах диаграммы имеют s-канальную сингулярность $ M_t^2 = (p_b + p_W)^2 \rightarrow m_t^2$, в отличии от основных фоновых процессов, имеющих другие сингулярности фазового пространства. На рисунках 4.1.14.1.1 изображены типичные диаграммы для $ Wjj$ и QCD процессов, в которых возникают типичные сингулярности в переменных:


$\displaystyle M_{g1, g2}^2$   $\displaystyle = (p_{g1} + p_{g2})^2 \rightarrow 0,$ (4.6)
$\displaystyle \hat t_{q,(g1g2)}$   $\displaystyle = (p_{g1} + p_{g2} - p_q)^2 \rightarrow 0,$ (4.7)
$\displaystyle \hat t_{q,g1}$   $\displaystyle = (p_{g1} - p_q)^2 \rightarrow 0,$ (4.8)
$\displaystyle \hat t_{q,g2}$   $\displaystyle = (p_{g2} - p_q)^2 \rightarrow 0.$ (4.9)

Однако, эти переменные определены на партонном уровне и не могут быть прямо измерены на эксперименте. В такой ситуации можно использовать другие переменные, связанные с базовыми сингулярными переменными. Например, типичные t-канальные сингулярные переменные можно переписать для безмассовых конечных частиц через наблюдаемые переменные:

$\displaystyle \hat t_{i,f} = (p_f - p_i)^2 = - \sqrt{\hat s} e^{Y_{tot}} P_T^f e^{-\vert y_f\vert},$ (j)

где $ \sqrt{\hat s}$ - полная инвариантная масса системы конечных частиц, $ Y_{tot}$ псевдорапидити системы конечных частиц, $ P_T^f$ и $ y_f$ поперечный импульс и псевдорапидити конечной частицы. В результате можно записать полный набор измеряемых сингулярных переменных для пары сигнальный процесс и $ Wjj$ фон:
$\displaystyle \rm {Set 1: }$   $\displaystyle \rm {M_{j1, j2}, M_t, Y_{\rm {tot}}, {P_T}_{j1},
y_{j1},}$ (4.11)
    $\displaystyle \rm {{P_T}_{j2}, y_{j2}, {P_T}_{j12}, y_{j12}, \sqrt{\hat s}},$  

где $ {P_T}_{j12}$ и $ y_{j12}$ поперечная энергия и псевдорапидити системы из двух наиболее энергичных струй. Распределения для некоторых из этих переменных показаны на рисунке 4.4.

Figure 4.4: Распределения по кинематическим переменным, отражающим некоторые сингулярности; сигнал -прерывистая линия и фон -сплошная линия. На верхних 4-х рисунках фон - $ Wjj$, на двух нижних - QCD.
=7cm =6cm \epsffile {tplot2.eps}
Figure 4.5: Изменение функции ошибки нейронной сети ($ \chi ^2$) с каждым циклом тренировки сети, для разных наборов входных переменных. Для данной сети в качестве сигнала выбирается процесс $ tb$, в качестве фона $ Wjj$.
=7cm =6cm \epsffile {hi2_tp.eps}

Для проверки такого метода определения оптимального набора переменных были выбраны нейронные сети, натренированные с альтернативными наборами входных переменных. Критерием улучшения результата от набора к набору выбрано изменение функции ошибки (4.5) с каждым циклом тренировки сети. Соответствующие распределения показаны на рисунке 4.5. Чем меньше функция ошибки, тем точнее нейронная сеть разделяет сигнальные и фоновые события. Наиболее простой набор $ Set2$ содержит 4 общих, часто используемых переменных ( $ H_{\rm {all}} = \sum E_f$, $ H_{T\rm {all}} = \sum {E_T}_f$). В следующем наборе $ Set3$ добавлена одна наиболее характерная сингулярная переменная сигнала $ M_t$.

$\displaystyle \rm {Set 2: }$   $\displaystyle \rm {{P_T}_{j1}, {P_T}_{j2},
H_{\rm {all}}, H_{T\rm {all}};}$ (4.12)
$\displaystyle \rm {Set 3: }$   $\displaystyle \rm {{P_T}_{j1}, {P_T}_{j2},
H_{\rm {all}}, H_{T\rm {all}}, M_t;}$ (4.13)

Из рисунка 4.5 видно, что функция ошибки меньше для набора $ Set1$, чем для $ Set2$ или $ Set3$; это означает, что в более простых наборах переменных отсутствует некоторая часть информации, способствующая лучшему разделению сигнала и фона. Далее можно проверить набор $ Set1$ на полноту. Если добавлять к нему две дополнительные переменные $ H_{\rm {all}}$ и $ H_{T\rm {all}}$ (образуется $ Set4$), то из рисунка 4.5 видно, что результат стал хуже, следовательно дополнительные переменные не принесли существенно новой информации, но, увеличив размерность пространства тренировки, ухудшили результат.

Разумеется, рассмотрение только знаменателей фейнмановских диаграмм не гарантирует абсолютно полного набора чувствительных к особенностям сигнала и фона переменных. Например, числитель фейнмановских диаграмм может дать дополнительные переменные, связанные со спиновыми эффектами. Могут существовать более специфичные особенности каждого процесса. В нашем случае можно использовать дополнительную информацию, связанную с идентификацией $ b$-струй по наличию тагирующего мюона; вероятность появления такого мюона в сигнальных событиях существенно выше, чем в фоне $ Wjj$ и распределения по $ P_T$ тагирующего мюона отличаются для сигнала и фона. Следовательно можно закодировать такую дополнительную информацию введением дополнительной переменной $ P_T^{(Тагир. \ \mu)}$, которая равна нулю в нетагированных событиях. Результат показан на рисунке 4.5 ($ Set5$). Видно, что в данном случае введение дополнительной информации существенно улучшило результат по сравнения с набором только сингулярных переменных $ Set1$.


next up previous contents
Next: Проверка нейронных сетей Up: Метод нейронных сетей Previous: Метод нейронных сетей   Contents