Участник:EvgSokolov/Песочница

Материал из MachineLearning.

< Участник:EvgSokolov(Различия между версиями)
Перейти к: навигация, поиск
(Новая: == LESN (Low End Signal is Noise) == Данный метод основывается на двух принципах: фоновая поправка должна сохранять п...)
Текущая версия (21:36, 10 сентября 2013) (править) (отменить)
(Полностью удалено содержимое страницы)
 
(26 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
== LESN (Low End Signal is Noise) ==
 
-
Данный метод основывается на двух принципах: фоновая поправка должна сохранять порядок интенсивностей проб и наименьшим интенсивностям должна соответствовать наибольшая поправка<ref name="bolstad04analysis">Bolstad, B. M. (2004). Low-level Analysis of High-density Oligonucleotide Array Data: Background, Normalization and Summarization. Analysis. UNIVERSITY OF CALIFORNIA, BERKELEY.</ref>.
 
-
Обозначим через <tex>p_{min}</tex> наименьшее значение интенсивности пробы на чипе.
 
-
Пусть <tex>w(P)</tex> - невозрастающая весовая функция, принимающая значения из <tex>[0, 1]</tex> и такая, что <tex>w(p_{min}) = 1</tex>.
 
-
Тогда если <tex>P_i</tex> - интенсивность <tex>i</tex>-й пробы, то поправка вычисляется по следующей формуле:
 
-
::<tex>P_i' = P_i - w(P_i)(p_{min} - p_0)</tex>
 
-
Здесь <tex>p_0</tex> - некоторая маленькая константа, необходимая для того, чтобы интенсивности не обращались в ноль.
 
-
 
-
В качестве весовой функции предлагается использовать экспоненциальную или гауссову:
 
-
::<tex>w_E(P) = exp(- \frac{P - p_{min}}{\theta})</tex>
 
-
 
-
::<tex>w_G(P) = exp(- \frac{(P - p_{min})^2}{\theta^2})</tex>.
 
-
 
-
Отметим, что авторы рекомендуют перед вычислением поправок перейти к логарифмической шкале.
 

Текущая версия

Личные инструменты