我有一个问题,用主机名构造kafka producer。
这就是我所做的。
1) 我将host.name,端口配置设置为server.properties
侦听器 = 明文: // 192.168.0.102:9092
端口 = 9092
主机.名称 =
我正在尝试在kubernetes环境中运行融合的kafka图像 & 面对
致命 [KafkaServer id = 0] 在KafkaServer启动期间出现致命错误。准备关闭 (kafka.server.KafkaServer)
卡夫卡。
我在本地运行kafka遵循快速入门指南的说明在这里,
然后我在config/consumer.properties中定义了我的消费者组配置,以便我的消费者可以选择消息...
我正在尝试组装一个小程序来使用apache flink连接到kafka主题。我需要使用FlinkKafkaConsumer010。
包uimp
import org.apache.flink.streaming.api.scala._
import org.apa...
从一个源系统我收到了下面的事件有效负载
为下面的json有效负载创建了Stream1
事件JSON 1
{
“事件”: {
“头”: {
"Name":"abc &
我开始卡夫卡连接分布模式,但得到以下错误。
这在我的其他开发集群上工作正常,但是,我只在我的生产集群中得到这个错误。
ERROR Stopping由于
我的目标是在超过一定数量的字节 (序列化的json) 时将一个聚合设置为null。有没有办法或者保留时间是最终删除聚合的唯一方法?
我想使用现成的kafka连接器从REST API获取数据。我在汇合集线器上找到了kafka-connect-http连接器,但此连接器不支持预身份验证...
我得到了以下stacktrace使用quarkus smallrye反应消息与卡夫卡:
2020-07-24 01:38:31,662 ERROR [io.sma.rea.mes.kafka] (executor-thread-870) SRMSG18207: Unable to dispatch mesa.
如果数据正在使用REST代理注入Kafka集群,如何精确实现一次。
我使用的是confluent平台5.3版社区版。
我得到了以下stacktrace使用quarkus反应消息与卡夫卡:
At org.jboss.threads.ContextClassLoaderSavingRunnable.ru n(ContextClassLoaderSavingRunnable.java:35)
在组织。
添加retention.ms = "604,800,000" 后,我在Kafka上得到以下错误。
Org.apache.kafka.streams.errors.StreamsException: 任务 [0_7] 中止发送,因为使用上一个捕获了错误
假设有107条记录,每条记录为kb。如果获取大小为15kb,在7次迭代中将消耗105kb。现在,只剩下2kb了,我会在下一个iterati中得到剩下的2条记录吗.
我对卡夫卡非常陌生。我已经在我的mac上使用自制软件安装了kafka和zookeeper,我正在玩快速入门指南。
我已经能够使用以下方式将消息推送到Kafka上
我已经设置了MirrorMaker2 用于复制 2 DC之间的数据。
我的mm2.properties,
# Mm2.properties
Name = source->dest
Clusters = source,dest
Source.bootstrap.servers = localhost:9091
Dest.bootst.
我使用的是社区版的Confluent 5.2。我用name employee-info创建了一个新主题。
我使用flink作为上述主题的消费者。在flink中,为了添加kafka源,我们需要在grou中传递.
我正在使用JDBC源连接器从Teradata表中读取数据并推送到Kafka主题。但是当我试图使用JDBC接收器连接器来读取Kafka主题并推送到Oracle表时,它会抛出.
我正在使用jdbc源连接器,我的表名称有特殊字符 (即 $) 这是DB引擎可以接受的,但是当我运行kafka-connect时,它会尝试创建kafka.
我们使用的Kafka connect S3 接收器连接器连接到Kafka并将数据加载到S3 存储桶。现在,我想使用Copy命令将数据从S3 存储桶加载到AWS Redshift,为此我正在创建自己的
我们正在运行kafka hdfs sink connector (版本 5.2.1),需要HDFS数据被多个嵌套字段分区。topics中的数据存储为Avro,并具有嵌套元素。How ever connect
这与下面的线程中提到的主题有关。
JDBC Sink连接器-使用kafka-connect从多个主题升级到多个表
我知道它有点老的帖子。但是我的问题.
我们有一个微服务,目前使用spring-cloud-stream Ditmars.RELEASE,反过来使用kafka-clients 0.10.1.1。
我们有兴趣升级到spring-cloud-stream 2.0.0.RC3,在t.
使用新服务 (例如非RDBMS数据存储或消息队列) 时,我首先想到的一件事是: “我应该如何构建我的数据?”。
我已经阅读并观看了一些介绍
实际上我有一个基于springboot的微服务,我已经使用kafka从不同的系统产生/消费数据。
现在我的问题是我有两个不同的主题,基于主题我有两个。
Spring-Kafka: 当根据文档使用暂停/恢复方法暂停/恢复消费者时,当使用自动分配但不起作用时,不应该发生重新平衡,重新平衡发生.
有人能告诉我什么是重新平衡算法为卡夫卡消费者?我想了解分区计数和消费者线程如何影响这一点。
谢谢,
我正在测试卡夫卡一点,希望能很快把它放入我的生产堆栈中。
我正在使用kafka-console-producer.sh和kafka-console-consumer.sh的文件来测试kafka的功能.
我一直在尝试使用SASL_PLAINTEXT SCRAM-SHA-256 向我的Kafka经纪人添加SASL身份验证一段时间,但没有任何成功。我不断在Kafka的日志文件上得到以下错误。
……
我在一个数据中心有一个Kafka集群。一群可能通过wan (甚至是internet) 进行通信的客户端将向/从集群发送/接收实时消息。
我从卡夫卡的
我已经配置了一个Kafka代理集群和一个使用kafka_2.11-1.1.0 分配存档的Zk实例集群。
对于Kafka代理,我已经配置了config/server.properties
Broker.id = 1,2,3
我对通过Spring Kafka同步发布的事件的超时配置的最佳实践有点困惑。Spring Kafka文档提供了一个使用ListenableFu的示例.
我们有一个用处理器API构建的Kafka Streams Java拓扑。
在拓扑中,我们有一个单处理器,它保存到多个状态存储。
当我们使用at_least_once时,我们希望看到
我有一个场景,我们使用fluentD代理将应用程序日志转发到Kafka主题,
由于Kafka团队引入了Kerberos认证和fluentD版本不支持这个authenti.
我正在开发一个Kafka-Stream应用程序,它将从输入Kafka主题读取消息并过滤不需要的数据并推送到输出Kafka主题。
Kafka流配置:
@ Bean (名称 =
我想知道KTable是否能满足我们的需求。
假设我在Kafka中有一个包含事件的主题myTopic,我在这个主题上插入了一个KafkaStreams应用程序。
让我们假设在时间t0,myTopic cont.