리스트를 추가로 생성하지 말라는 규칙이 있다.(Do not allocate extra space for another array. You must do this by modifying the input array in-place with O(1) extra memory
토픽 - 한 개 이상의 파티션 소유파티션 - 데이터 저장(레코드), FIFO, 삭제X라운드 로빈 방식장점 : 한개 브로커에 지속적으로 처리되는게 아니라 분산되어 데이터 처리통신집중 막고, 선형 확장하여 데이터 증가 대응 가능데이터 쏠림 방지kafka-reassign-
브로커중 한대가 컨트롤러 역할.다른 브로커들 상태를 계속 체크카프카는 지속적 데이터 처리, 브로커가 비정상이면 빠르게 뺀다.리더 재분배컨슈머가 데이터를 가져가도 토픽 데이터 삭제 X오직 브로커만 데이터 삭제 가능.삭제는 파일 단위로 ->'로그 세그먼트'특정 데이터 삭제
데이터를 보내면(메시지) 여러 파티션중 하나에 적재큐 구조와 동일하다.컨슈머가 데이터 가져가도 파티션 데이터는 삭제되지 않는다.배치 데이터 -> 일괄적으로 모아서 한번에 처리, 한정된 데이터 처리, 지연 발생스트림 데이터 -> 무한 데이터 처리, 지속, 분 단위 이하
네... 프로젝트 주제를 정해서 왔습니다.제가 요금 포르자 호라이즌에 빠졌는데 이 게임이 실시간으로 데이터를 udp로 쏴주는게 있었습니다. 카프카를 이용해서 실시간으로 데이터를 처리하고 로그스태시를 이용해서 엘라스틱 서치로 보내고 시각화는 뭐로할지 고민중입니다!포르자
이번에는 2차원 배열에서의 누적합이다.가로, 세로 모두 누적합을 구해준다.더하면 중복되는 부분이 생기는데 해당 부분을 빼주고 두번 빼준 부분을 더해준다.
만약 리스트가 a = 1, 2, 3 이면각 구간의 합은 k = 1, 3, 5 이다.이것을 이용하여 1 - 2의 구간합을 구하려면?k2 - k0의 값이 답이 된다.따라서 k끝 - k시작 - 1
다음 프로젝트를 고민중이다.우선은 내가 게임을 좋아하기 때문에 게임에서 실시간으로 데이터를 받아와서 kafka를 이용한 실시간 데이터 처리?를 해보고 싶다...riot api를 사용해서 게임 데이터를 처리해볼까...
이번 프로젝트를 완료하긴 했다...하지만 완벽하다고 생각하지 않았기 때문에 만났던 문제점들을 적어보려고 한다.메모리 문제ec2 프리티어를 이용해서 진행했기 때문에 메모리가 1기가가 주어졌다.처음에는 그냥 구동하면 자꾸 중간에 멈추고 점유율이 90퍼센트가 넘어가서 이유를
원래는 에어플로우를 이용해서 해보려고 했는데...apache airflow webserver가 구동되다가 멈추는 현상이 계속 발생해서 일단은 crontab으로 대체했다.1시간에 한 번 받아오면 되기 때문에0 \* \* \* \* python3 ~/sql_insert/w
\*은 괄호 안에 있는 데이터를 푸는 역할이 있다.tuple또한 마찬가지.딕셔너리 타입은 키 값들로 풀어진다.positional arguements원하는 값을 넣으면 된다.keyword arguementskey를 통해 값을 주어야 한다.둘 다 쓰려면 args를 먼저 써
특정한 규칙을 가지는 트리.최댓값과 최솟값을 찾는 연산을 빠르게 하기 위해 고안된 완전 이진 트리최소 힙 : 부모 노드의 값이 자식 노드의 값보다 항상 작은 힙최대 힙 : 부모 노드의 값이 자식 노드의 값보다 항상 큰 힙<출처: https://www.ge
시작 시간과 끝나는 시간을 비교해서 푸는 문제이다.우선순위 큐를 이용.제일 처음 시간과 비교하여 그 값보다 작으면 강의실을 새로 만들고 크면 강의실을 만들지 않아도 된다.
강의실 배정 괄호의 값인프런 중급 강의 듣기데이터 받아오는 파이썬 코드aws -> virtual box로 옮기기다양한 옵션 실험