Я работаю над Apache Kafka. Я хочу знать, какой из них лучше: Кафка или ActiveMQ. В чем главное отличие этих двух технологий? Я хочу реализовать Кафку в Spring MVC.
Я поместил сообщение, которое было слишком большим, в тему сообщений kafka на моем локальном компьютере, теперь я получаю сообщение об ошибке: kafka.common.InvalidMessageSizeException: недопустимый размер сообщения. Увеличение размера fetch.size ...
У меня есть сценарий, который мне нужно использовать один производитель (фондовая биржа), которые предоставляют рыночные данные. Каждое сообщение рыночных данных содержит («символ», «цена» и «отметка времени»). Между тем у меня 3 потребителя (...
Я следую этому уроку. И в соответствии с инструкциями я скачал отсюда платформу и клонировал репозиторий github для кода. Загруженная платформа находится в заархивированном виде, поэтому я разархивировал ее и ...
Я довольно новичок в Python и только начинаю с Kafka, так что извините мою терминологию, если я где-то ошибаюсь. Итак, у меня есть веб-приложение на основе Django, куда я отправляю сообщения json через ...
Я создаю Spark Streaming Application и хочу обрабатывать каждое сообщение Кафки отдельно. Сейчас я хочу просто записать значения сообщений, чтобы проверить, что все работает. Но когда я пытаюсь напечатать ...
Я делал несколько тестов на старую тему, когда заметил странное поведение. Читая журнал Кафки, я заметил это сообщение «удалено 8 истекших смещений»: [GroupCoordinator 1001]: Стабилизированная группа ...
Продюсер Кафки имеет возможность выполнять микропакеты для операции отправки на основе batch.size и linger.ms для повышения производительности производителя. Однако даже если сообщения ...
У меня есть несколько экземпляров потокового приложения Kafka. Чтобы запросить ключ из магазина, я вызвал streams.metadataForKey с необходимым ключом. Этот метод возвращает сведения об экземпляре для магазина ...
По умолчанию .windowedBy (SessionWindows.with (Duration.ofSeconds (60)) возвращает запись для каждой входящей записи. В сочетании с .count () и .filter () легко получить первую запись. Используя ... ,
При увеличении / уменьшении потребителей (добавление или удаление потребителей в группу) происходит перебалансировка - это создает некоторые проблемы с задержкой в системе, что приводит к возникновению тайм-аута. (видел около 3 сек продюсера до ...
Я использую пружинный каркас и кафку с 6-ю потребительскими нитками. после того, как 2 потока одной группы потребителей заблокированы для вызова конечной точки мыла в течение более 30 минут (я знаю, что должен это исправить!) ...
У меня есть требование подписаться на файлы сообщений в реальном времени, которые могут быть опубликованы из уже существующей установки MQ на стороне клиента в модели pub-sub. Когда я подписываюсь на тему MQ, чтобы ...
Интересно, если коммитируемый источник, опросить новые записи только тогда, когда записи фиксируются на другом конце потоков. То есть может ли он продолжать опрос и получать новые записи, даже если записи ...
Я новичок в Kafka и пытаюсь создать библиотеку-обертку на Java и Go (использует Confluent / Kafka-Go) для внутреннего использования Kafka. Для моего варианта использования CommitSync - это важный шаг, и мы должны ...
Уважаемые, мне нужно добавить некоторые интеграционные тесты ко многим ресурсам в проекте, над которым мы работаем, который использует Kafka, но до сих пор я не смог запустить только один экземпляр Embedded Kafka во всех тестах ...
Я пытаюсь создать конвейер в реальном времени от Кафки до HBase, используя Pyspark, используя блог: https://datafloq.com/read/real-time-kafka-data-ingestion-into-hbase-pyspark/2658 Ошибка ниже когда ...
Я пытаюсь прочитать последнюю запись раздела темы. Производитель темы пишет транзакционно. Потребитель настроен с изоляцией .level = read_committed. Я управляю смещениями вручную. ...
В соответствии с этим руководством я пытаюсь выполнить в реальном времени ввод данных Kafka в HBase через PySpark. Кажется, все работает нормально. Я запускаю Кафку Судо /usr/local/kafka/bin/kafka-server-start.sh / ...
У меня есть запрос ksql, который объединяет два потока, выполняет оконную агрегацию, сгруппированную по event_time и ключу. Запрос выглядит примерно так: select l.event_time, l.mykey, max (l.val), max (r .. ..
У меня есть бесконечный поток (от kafka, использующего реактор-kafka) событий, которые я пытаюсь записать пакетами в базу данных, прежде чем перейти к фактической обработке событий. Моя проблема состоит в том, чтобы заставить это работать ...
Я пытаюсь опубликовать данные в kafka, читая данные из TeradataDB с помощью Kafka-Connect JDBCSourcConnector. Сообщение при просмотре у потребителя кажется поврежденным, как показано ниже. Пожалуйста, помогите. ...
У меня есть группа потребителей logstash kafka, подписавшаяся почти на 20 тем, которые не очень хорошо подходят для обработки определенной темы с высоким приоритетом, поэтому я решил удалить одну тему из ...
Я реализовал потребитель Kafka, используя .net core 2.1 с Confluent.Kafka SDK (C #). Функция опроса настроена на запуск в течение 10 минут, а код развернут как лямбда-функция AWS, которая ...
Я пытаюсь настроить кластер Kafka за потоком nginx. Моя кафка работает в виртуальной машине внутри виртуальной сети (зона интрасети), у меня есть другая виртуальная машина, в которой работает nginx (зона Интернета). Я хочу быть в состоянии ...
Я строю планировщик корпоративных событий на основе потоков Kafka. Запланированные события собираются или генерируются из микросервисов в облаке. Каждый микросервис будет иметь около 200 рабочих ...
ProcessorContext.schedule (..) принимает параметр интервала продолжительности, и мы можем указать, что какое-то действие (пунктуатор) будет выполняться через каждый интервал времени X (например, каждый час). С таким планированием, ...
Я использую kafka spark Direct API, чтобы использовать тему кафки. Когда нагрузка высока, моя искровая работа не поглощает сразу все незафиксированные сообщения, а потребляет небольшие партии за другой. Что вызывает ...
У меня есть простая таблица базы данных в MySQL, которая имеет (id varchar (255), val varchar (255), ..., ...). Я настроил Kafka Connect для потоковой передачи таблицы в тему (CONNECT_TOPIC) с двадцатью разделами. Я имею ...