FileInfo fi = new FileInfo("FILE LOCATION");
StreamReader reader = new StreamReader( fi.ToString() );
String Line = "";
while ( ( Line = reader.ReadLine() ) != null )
{
if ( !Line.Contains("Dimension text") {
continue;
}
String Property = Line.Split( '=' )[0];
String Value = Line.Substring( Property.Length + 1, Line.Length - Property.Length - 1 );
Console.WriteLine( Value ); // This line will print value of Dimension text
}
надеюсь, что это сработает для вас.
Все это зависит от объемов данных и содержания для меток распределения и отношений плотности
, Если у Вас есть низкое распределение тега, и отношение плотности (типичный человек генерировал данные), можно просто генерировать уникальный идентификатор или хеш для каждого возможного набора тегов, используемых по условию. Свяжите 'идентификатор' набора тега с каждым экземпляром данных с теми тегами
, Это может работать удивительно хорошо на многие формы сгенерированных данных человека
, например, Stackoverflow имеет ~500 000 вопросов и ~20 000 тегов (слишком много тегов выхода простофили!). Большинство вопросов имеет меньше чем пять тегов. В худшем случае вариант развития событий, который у Вас будет 500 000 'идентификаторов' набора тега для соединения, но более реалистично у Вас будет несколько тысяч
Вы также, должен будет или иметь отслеживание экземпляра или сборку "мусора" на 'наборе' набора тега, поскольку определенная комбинация тегов выходит из употребления
, например,
отмечает, быстро, если хеш используется (хеш на всех тегах набора). Иначе необходимо искать наборы TagCollection и TagCollectionTag, но это не должно быть слишком большим так или иначе
, Поиск быстр; ищите TagCollectionTag экземпляры, содержащие определенный набор тегов, и затем найдите строки данных с любым из тех tagCollectionId's
Hope, которая не также путала:-)
Вы могли запустить с этого: http://tagging.pui.ch/post/37027746608/tagsystems-performance-tests
упомянутый в этом: Масштабирующиеся веб-приложения и Отмечающий - Digg, Del.icio.us, StackOverflow