[Kafka 개념] Kafka 브로커, 복제, ISR(In-Sync-Replica)
·
Apache Kafka/개념 정리
Kafka Broker카프카 브로커는 카프카가 설치되어 있는 서버 단위를 말한다.보통 3개 이상의 브로커로 구성하여 사용하는 것을 권장한다. 만약 파티션이 1개이고, replication이 1인 topic이 존재하며 브로커가 3대라면,브로커 3대 중 1대에 해당 토픽의 정보(데이터)가 저장된다.     Kafka Replicationreplication은 partition의 복제를 뜻한다. 만약 replication이 1이라면, partition은 1개만 존재한다는 것이고replication이 2라면, partition은 원본 1개와 복제본 1개로 총 2개가 존재한다. replication이 3이라면?? 그렇다! replication이 3이라면, partition은 원본 1개와 복제본 2개로 총 3개가 ..
[Kafka 개념] Kafka 토픽과 파티션 (2)
·
Apache Kafka/개념 정리
토픽과 파티션토픽을 삭제하면 데이터는 삭제되고 파이프라인은 중단된다. 데이터의 생명주기 한가운데에 토픽이 있다.그만큼 토픽은 카프카에서 중요한 역할을 하므로 잘 이해하고 상세 옵션들에 대해서 자세히 알 필요가 있다.   적정 파티션 개수토픽의 파티션 개수는 카프카의 성능과 관련이 있다.그렇기 때문에 토픽을 운영함에 있어 적절한 파티션 개수를 설정하고 운영하는 것이 매우 중요하다. 토픽 최초 생성 시, 파티션의 개수를 정하는 데에 고려해야 할 점은 3가지가 있다.데이터 처리량메시지 키 사용 여부브로커, 컨슈머 영향도 데이터 처리량파티션은 카프카의 병렬처리의 핵심이다. 파티션의 개수가 많아지면 많아질수록 1:1 매핑되는 컨슈머 개수가 늘어나기 때문이다.그렇기 때문에 파티션 개수를 정할 때는 해당 토픽에 필요..
[Kafka 개념] Kafka 토픽, 파티션 (1)
·
Apache Kafka/개념 정리
토픽과 파티션 그리고 레코드토픽은 카프카에서 데이터를 구분하기 위해 사용하는 단위이다.토픽은 1개 이상의 파티션을 소유하고 있으며파티션에는 프로듀서가 보낸 데이터들이 들어가 저장되는데, 이 데이터들을 '레코드(record)'라고 부른다.    토픽카프카에는 다양한 데이터가 들어갈 수 있는데, 데이터가 들어가는 공간을 토픽이라고 부른다.카프카에서는 토픽을 여러 개 생성할 수 있다. 또한 토픽은 이름을 가질 수 있는데, 무슨 데이터를 담는지 명확하게 명시하면 추후 유지 보수 시 편리하게 관리할 수 있다. 토픽은 데이터베이스의 테이블이나 파일 시스템의 폴더와 유사한 성질을 가지고 있는데,프로듀서가 토픽에 데이터를 넣게 되고 컨슈머는 데이터를 가져가게 된다.   파티션토픽안에 1개 이상으로 존재하는 파티션은 자..
Docker compose로 올린 Kafka에 ACL, SASL/PLAIN 인증 설정하기
·
Apache Kafka/보안
들어가며기본적으로 카프카는 어느 누구나 클러스터에 접근하여 메시지를 생성하거나 읽을 수 있다.이로인해 보안이 적용되지 않은 상태에서는 데이터의 무단 액세스와 무단 조작이 가능하므로, 중요한 정보를 다루는 시스템에서는 보안을 강화하는 것이 중요하다. 그러므로 카프카에 누가 요청을 보내고, 그 요청자의 권한에 따라서 요청 범위를 제한하는카프카 인증, 인가에 대해서 알아보고 직접 적용해보고자 한다.   개념 카프카 인증카프카에서 인증을 처리하는 방식으로 SSL 방식과 SASL 방식으로, 크게 두 가지 방식이 존재한다.SSL : 인증서를 활용한 인증 방식데이터를 암호화하고 통신 채널을 안전하게 유지하여 중간에서의 데이터 탈취나 변조를 방지한다.SASL : SASL 프로토콜을 이용한 인증 방식클라이언트가 카프카 ..
Kafka Jsonserializer/JsonDeserializer 한글 처리 오류
·
Apache Kafka/오류 해결
문제 현재 스프링부트에서 STOMP를 활용한 채팅방을 구현하는 도중에 아래 오류를 해결한 후에 또 다른 오류를 직면하게 되었다. https://kjungw1025.tistory.com/24 SpringBoot와 Kafka 연동 시 발생한 ErrorHandlingDeserializer 관련 오류 문제 스프링부트에서 STOMP를 활용한 채팅방을 구현하기 위해 기존 In memory broker 방식에서 External broker 중 하나인 Kafka를 통해 아래 형태의 메시지를 전달하려는데, @Getter @NoArgsConstructor @ToString publi kjungw1025.tistory.com KafkaTemplate 부분을 보다시피 채팅방 메시지를 전달하기 위해서 value 값을 Messa..
SpringBoot와 Kafka 연동 시 발생한 ErrorHandlingDeserializer 관련 오류
·
Apache Kafka/오류 해결
문제스프링부트에서 STOMP를 활용한 채팅방을 구현하기 위해기존 In memory broker 방식에서 External broker 중 하나인 Kafka를 통해 아래 형태의 메시지를 전달하려는데, @Getter@NoArgsConstructor@ToStringpublic class Message { @NotNull private MessageType type; private String roomId; @NotNull private String sender; @NotNull private String message; @Builder private Message(MessageType type, String roomId, ..
SpringBoot와 Docker compose로 pull 받은 Kafka 연동 시 발생한 오류
·
Apache Kafka/오류 해결
문제 1현재 카프카의 경우, AWS LightSail 서버에 Docker로 올려둔 상황이며,로컬 환경에서의 스프링부트와 연동하고자 하는데 아래와 같은 문제가 발생했다.INFO 33496 --- [ntainer#0-0-C-1] org.apache.kafka.clients.NetworkClient : [Consumer clientId=consumer-chatting-1, groupId=chatting] Node 1001 disconnected.WARN 33496 --- [ntainer#0-0-C-1] org.apache.kafka.clients.NetworkClient : [Consumer clientId=consumer-chatting-1, groupId=chatting] Connection to ..
[Kafka 개념] Kafka 브로커, 클러스터, 주키퍼
·
Apache Kafka/개념 정리
카프카 브로커, 클러스터, 주키퍼 카프카 브로커는 카프카 클라이언트와 데이터를 주고받기 위해 사용하는 주체이자,데이터를 분산 저장하여 장애가 발생하더라도 안전하게 사용할 수 있도록 도와주는 애플리케이션이다.  기본적으로 하나의 서버에는 한 개의 카프카 브로커 프로세스가 실행되나,데이터를 안전하게 보관하고 처리하기 위해서는 3대 이상의 브로커 서버를 1개의 클러스터로 묶어서 운영하는 것이 좋다.  카프카 클러스터로 묶인 브로커들은 프로듀서가 보낸 데이터를 안전하게분산 저장하고 복제하는 역할을 수행한다.   브로커데이터 저장, 전송프로듀서로부터 데이터를 전달받으면 카프카 브로커는 프로듀서가 요청한 토픽의 파티션에 데이터를 저장하고컨슈머가 데이터를 요청하면 파티션에 저장된 데이터를 전달한다. 프로듀서로부터 전..