Получать записи, отличные от уникальных в DataTable, используя asp.net C #

Следите за тем, чтобы у вас не было одного из тех запущенных приложений для облачного резервного копирования, в которых выполняются блокировки файлов, а также у вас нет вещей, открытых в проводнике или в инструменте проверки DLL.

Я думаю, что это смешно, что MS не делает лучшего положения для этой проблемы. Я нахожу, что в 9 раз из 10 мое развертывание работает очень хорошо, но затем, поскольку наш трафик увеличивается, что может стать 1 в 10 раз.

Я собираюсь решить проблему с помощью:

  • два приложения MySite.A и MySite.B, где одновременно выполняется только одно.
  • Я всегда разворачиваюсь на бездействующий сайт.
  • Если во время развертывания возникла проблема, он не заставит весь сайт опуститься.
  • Если после развертывания возникла серьезная проблема, вы можете легко вернуться назад.

Не совсем уверен, как я его реализую, но я думаю, что это то, что мне нужно сделать.

0
задан Sumit raj 13 July 2018 в 15:35
поделиться

1 ответ

Мы можем предоставить расширение Skip() для получения остальных элементов, кроме уникальных значений. Попробуйте что-то вроде ниже,

Вы получаете значение First () из сгруппированных элементов в вашем коде. Итак, мы можем пропустить первый и получить оставшиеся предметы.

var duplicateItems = dataTable
              .AsEnumerable()
              .GroupBy(r => new
              {
                  Col1 = r.Field<String>("SAP-ID")
              })
              .Select(g => g.Skip(1)).SelectMany(x => x).CopyToDataTable();

            duplicateItems.AcceptChanges();

C # Fiddle для этого.

0
ответ дан Selva TS 17 August 2018 в 13:04
поделиться
  • 1
    вы принимаете это в переменной, верно? можно взять его в виде данных – BNN 16 July 2018 в 05:31
  • 2
    получение ошибки как The source contains no DataRows. – BNN 16 July 2018 в 06:09
  • 3
    @BNN Вы проверили, имеют ли ваши данные дубликаты? Проверьте скрипку. Он работает нормально. Также результат в DataTable. – Selva TS 16 July 2018 в 07:59
  • 4
    Да, у меня есть это, потому что я намеренно загружаю дубликаты данных для целей тестирования – BNN 16 July 2018 в 09:15
  • 5
    @BNN Я пробовал с некоторыми другими данными, и он отлично работает для меня. Проверьте свое выражение GroupBy. – Selva TS 16 July 2018 в 09:43
Другие вопросы по тегам:

Похожие вопросы: