Хотя это старый код:
private FieldInfo[] GetConstants(System.Type type)
{
ArrayList constants = new ArrayList();
FieldInfo[] fieldInfos = type.GetFields(
// Gets all public and static fields
BindingFlags.Public | BindingFlags.Static |
// This tells it to get the fields from all base types as well
BindingFlags.FlattenHierarchy);
// Go through the list and only pick out the constants
foreach(FieldInfo fi in fieldInfos)
// IsLiteral determines if its value is written at
// compile time and not changeable
// IsInitOnly determine if the field can be set
// in the body of the constructor
// for C# a field which is readonly keyword would have both true
// but a const field would have only IsLiteral equal to true
if(fi.IsLiteral && !fi.IsInitOnly)
constants.Add(fi);
// Return an array of FieldInfos
return (FieldInfo[])constants.ToArray(typeof(FieldInfo));
}
Вы можете легко преобразовать его в чистый код с помощью общих типов и LINQ:
private List GetConstants(Type type)
{
FieldInfo[] fieldInfos = type.GetFields(BindingFlags.Public |
BindingFlags.Static | BindingFlags.FlattenHierarchy);
return fieldInfos.Where(fi => fi.IsLiteral && !fi.IsInitOnly).ToList();
}
Или с одной строкой:
type.GetFields(BindingFlags.Public | BindingFlags.Static |
BindingFlags.FlattenHierarchy)
.Where(fi => fi.IsLiteral && !fi.IsInitOnly).ToList();
1988 Pearl Вероятностное Обоснование в Интеллектуальных Системах является той из наиболее процитированных работ над байесовскими сетями. Я нашел это довольно ясным. Тем не менее много было сделано в поле с 1988. Было бы мудро добавить эту книгу с более свежими работами.
Mitchell Машинное обучение является чрезвычайно важной краткой информацией в области AI. Это покрывает байесовские сети, посвящение, как я вспоминаю, вся глава к нему.
я также проверил бы класс байесовской сети Weka для понимания практической реализации. Если Вы не знаете о Weka, проверьте его здесь: http://www.cs.waikato.ac.nz/ml/weka/
Необходимо проверить на AI (Искусственный интеллект) книги. Я имею, узнают о Байесовском в Искусственный интеллект "Современный подход ".
Все книги, упомянутые до сих пор, являются довольно хорошими. Pearl обычно расценивается как являющийся немного твердым следовать, это также довольно дорого, но если можно управлять им, все питание Вам.
я был бы действительно действительно , рекомендуют проверить книгу Chris Bishop, Распознавание образов и Машинное обучение . Я думаю, что это - бесспорно лучшее лечение, которое Вы собираетесь пройти графических моделей в учебнике, по крайней мере, до Michael Jordan концы, и публикует его книгу по предмету.
Хорошая книга по общему машинному обучению 1 . Но это довольно легко на BN. Я не читал [2], но я читал [3] им, который хорош (таким образом, [2], вероятно, будет хорошо, как рекомендуется dwf). Я не рекомендовал бы книгу Pearl вообще, если Вы не делаете своего доктора философии!
Однако я на самом деле рекомендовал бы учебное руководство онлайн" Введение Резюме А в Графические Модели и байесовские сети " Kevin Murphy [4]. Лучший способ изучить BN состоит в том, чтобы считать это, загрузить его панель инструментов [5] Matlab и создать Ваш собственный BN через десять минут.
Эта книга онлайн была чрезвычайно полезна для меня во всех аспектах обучения машины, включая вывод Bayesian:
http://www.inference.phy.cam.ac.uk/mackay/itila/book.html
Предоставленный Вы знакомы с основной теорией вероятности, это - отличный ресурс.
Лучшие профессора в этих областях, на мой взгляд, эти 2 парня: ссылочный текст Ng. Эндрю и ссылочный текст профессор Паллаб Дасгупта.
Я смотрел все их учебники на BBN, и они были очень полезны, просто следуйте по ссылкам, и вы найдете еще лекции по ИИ с этими 2 интересными ребятами.
Получайте удовольствие, обучаясь с ними, Майк