logo
emoji
검색하기
어제 가장 많이 검색된 기술
emoji
가장 많이 읽은 글
logo
6/25/2025
logo
2025.06.25
emoji
좋아요
emoji
별로에요
logo
멀티모달 LLM을 활용한 Computer Use Agent를 알아보자!
안녕하세요. DEVOCEAN AI Fellowship 7기에서 Computer Use Agent(CUA) 프로젝트를 진행 중인 장교철입니다.이번 포스트에선 한국에서는 많이 알려지지 않은 CUA에 대한 배경 개념들과 최근 CUA 분야에는 어떤 연구들이 진행되고 있는지 설명드리려고 합니다.Computer Use Agent를 소개하기에 앞서, 그 기반이 되는 핵심 모델 중 하나인 MLLM(Multi-modal Large Language Model)의 개념을 간단히 설명드리겠습니다.MLLM(Multi-modal Large Language Model)은 텍스트 외에도 이미지, 비디오, 오디오 등 다양한 형태의 입력을 처리하고 이해할 수 있는 LLM을 의미합니다.기존 LLM이 자연어를 중심으로 훈련되었다면, MLLM은 이러한 언어 처리 능력을 시각 혹은 청각과 같은 다양한 모달의 정보와 결합함으로써 더욱 풍부한 이해와 응답 생성을 가능하게 합니다.대표적인 사용 예시로는 이미지를 설명하거나, VQA, Web Interaction Agent, 그리고 action이라는 Modal을 추가한 로봇 perception-action loop 등이 있습니다.Transformer의 등장으로 텍스트를 임베딩해서 다음 토큰을 생성할 수 있게 된 것처럼, 이미지를 1차원으로 임베딩 한 후 다음 픽셀을 생성하는 방식으로 MLLM이 발전하게 되었습니다.MLLM의 연구들은 순서대로 ViT, CLIP, BLIP, BLIP-2, SigLIP이 있습니다.• None ViT(Vision Transformer)는 이미지를 입력받아 패치 단위로 인코딩하는 Transformer 기반의 시각 인코더입니다. 이미지를 고정된 크기의 패치로 나눈 뒤, 각 패치를 벡터로 변환해 Transformer의 입력 시퀀스로 사용하고, 여기에 위치 정보를 더해 Self-Attention을 통해 패치 간의 전역적인 관계를 학습합니다. 최종적으로 [CLS] 토큰을 통해 전체 이미지를 대표하는 임베딩을 생성하며, CNN과 달리 국소 필터 없이도 이미지 내 구조적 관계를 효과적으로 이해할 수 있는 것이 특징입니다.• None CLIP(Contrastive Language–Image Pretraining)은 이미지와 텍스트 간 의미적 연관성을 학습하는 범용 멀티모달 인코더입니다. 이미지와 텍스트를 각각 ViT(또는 ResNet)와 Transformer로 인코딩한 후, 해당 쌍이 서로 잘 매칭되는지를 contrastive loss를 통해 학습합니다. 학습된 모델은 자연어로 설명된 개념을 이미지와 연결하는 데 매우 강력하며, 사전학습만으로 다양한 멀티모달 태스크에 zero-shot으로 적용 가능하다는 점에서 큰 영향을 끼쳤습니다.• None BLIP(Bootstrapped Language-Image Pretraining) 시리즈는 이미지-텍스트 쌍의 관계를 이해할 뿐 아니라, 자연어 생성을 수행할 수 있는 멀티모달 생성 모델입니다. BLIP는 이미지에서 설명을 생성하거나 질문에 답하는 태스크에 강점을 가지며, BLIP-2는 vision encoder와 대형 LLM 사이에 lightweight한 Q-former 모듈을 두어 정보 전달을 효율적으로 만듭니다. 이 구조는 이미지 입력을 통해 자연어 응답을 생성하는 instruction-following MLLM의 기반이 되었습니다.• None SigLIP(Sigmoid Loss for Language-Image Pretraining)은 CLIP의 개선 버전으로, contrastive learning 시 softmax 기반의 cross-entropy loss 대신 sigmoid 기반의 binary loss를 사용합니다. 이 방식은 쌍마다 독립적으로 정합 여부를 학습하므로 학습이 더 직관적이고 확장성이 뛰어나며, 특히 대규모 데이터에서 안정적인 성능을 보입니다. 구조적으로는 CLIP과 유사하지만, 학습 방식의 차이를 통해 멀티모달 표현 학습의 효율성과 성능을 모두 향상시켰습니다.LLM 그리고 MLLM의 발전, 그리고 모델의 크기와 표현 능력이 비약적으로 증가함에 따라, 단순한 텍스트 생성기를 넘어 실제 환경과 상호작용할 수 있는 AI Agent의 가능성도 함께 열리게 되었습니다.AI Agent는 주어진 목표를 달성하기 위해 환경과 지속적으로 상호작용하며, 계획을 수립하고 도구를 사용하며 행동을 실행하는 지능형 시스템입니다.최근에는 대형 언어 모델을 기반으로 한 언어 중심의 agent가 등장하면서,자연어 명령을 이해하고 복잡한 문제를 단계적으로 해결하거나 다양한 디지털 환경에서 자율적으로 작업을 수행하는 사례가 빠르게 증가하고 있습니다.AI Agent는 일반적으로 네 가지 핵심 구성 요소인 planning, tool use, action, memory를 기반으로 작동합니다.Planning은 주어진 목표를 달성하기 위한 일련의 작업 순서를 설계하는 과정이며, tool use는 외부 도구나 API를 호출하여 작업을 수행하는 단계입니다.Action은 실제로 계획된 작업을 실행하는 것을 의미하며, memory는 과거의 작업 기록이나 상태를 저장하고 이를 기반으로 이후 판단에 반영하는 역할을 합니다.이처럼 AI Agent는 단순한 응답 생성을 넘어, 능동적인 판단과 실행을 반복하면서 복잡한 작업을 수행할 수 있는 지능적 시스템으로 발전하고 있습니다.• None 현재도 많이 쓰이고 있는 Prompting 기법이자 LLM Agent의 세상을 열어준 Chain-of-Thought(CoT)은 복잡한 문제를 해결할 때 중간 추론 단계를 명시적으로 거치도록 유도함으로써 reasoning 능력을 향상시킨 접근입니다. Prompting 단계에서 문제를 풀게된 Chain-of-Thought(생각의 논리)를 함께 제공해주어 추론 단계에서도 비슷한 논리를 사용하여 유저의 instruction을 해결할 수 있도록 하는 Prompting 기법입니다.• None ReAct 논문은 Reasoning + Acting을 의미하는 이름으로 LLM이 Reasoning과 Acting을 번갈아 수행하도록 유도하는 프롬프트 기반 프레임워크를 제안합니다. 모델
6/25/2025
logo
멀티모달 LLM을 활용한 Computer Use Agent를 알아보자!
안녕하세요. DEVOCEAN AI Fellowship 7기에서 Computer Use Agent(CUA) 프로젝트를 진행 중인 장교철입니다.이번 포스트에선 한국에서는 많이 알려지지 않은 CUA에 대한 배경 개념들과 최근 CUA 분야에는 어떤 연구들이 진행되고 있는지 설명드리려고 합니다.Computer Use Agent를 소개하기에 앞서, 그 기반이 되는 핵심 모델 중 하나인 MLLM(Multi-modal Large Language Model)의 개념을 간단히 설명드리겠습니다.MLLM(Multi-modal Large Language Model)은 텍스트 외에도 이미지, 비디오, 오디오 등 다양한 형태의 입력을 처리하고 이해할 수 있는 LLM을 의미합니다.기존 LLM이 자연어를 중심으로 훈련되었다면, MLLM은 이러한 언어 처리 능력을 시각 혹은 청각과 같은 다양한 모달의 정보와 결합함으로써 더욱 풍부한 이해와 응답 생성을 가능하게 합니다.대표적인 사용 예시로는 이미지를 설명하거나, VQA, Web Interaction Agent, 그리고 action이라는 Modal을 추가한 로봇 perception-action loop 등이 있습니다.Transformer의 등장으로 텍스트를 임베딩해서 다음 토큰을 생성할 수 있게 된 것처럼, 이미지를 1차원으로 임베딩 한 후 다음 픽셀을 생성하는 방식으로 MLLM이 발전하게 되었습니다.MLLM의 연구들은 순서대로 ViT, CLIP, BLIP, BLIP-2, SigLIP이 있습니다.• None ViT(Vision Transformer)는 이미지를 입력받아 패치 단위로 인코딩하는 Transformer 기반의 시각 인코더입니다. 이미지를 고정된 크기의 패치로 나눈 뒤, 각 패치를 벡터로 변환해 Transformer의 입력 시퀀스로 사용하고, 여기에 위치 정보를 더해 Self-Attention을 통해 패치 간의 전역적인 관계를 학습합니다. 최종적으로 [CLS] 토큰을 통해 전체 이미지를 대표하는 임베딩을 생성하며, CNN과 달리 국소 필터 없이도 이미지 내 구조적 관계를 효과적으로 이해할 수 있는 것이 특징입니다.• None CLIP(Contrastive Language–Image Pretraining)은 이미지와 텍스트 간 의미적 연관성을 학습하는 범용 멀티모달 인코더입니다. 이미지와 텍스트를 각각 ViT(또는 ResNet)와 Transformer로 인코딩한 후, 해당 쌍이 서로 잘 매칭되는지를 contrastive loss를 통해 학습합니다. 학습된 모델은 자연어로 설명된 개념을 이미지와 연결하는 데 매우 강력하며, 사전학습만으로 다양한 멀티모달 태스크에 zero-shot으로 적용 가능하다는 점에서 큰 영향을 끼쳤습니다.• None BLIP(Bootstrapped Language-Image Pretraining) 시리즈는 이미지-텍스트 쌍의 관계를 이해할 뿐 아니라, 자연어 생성을 수행할 수 있는 멀티모달 생성 모델입니다. BLIP는 이미지에서 설명을 생성하거나 질문에 답하는 태스크에 강점을 가지며, BLIP-2는 vision encoder와 대형 LLM 사이에 lightweight한 Q-former 모듈을 두어 정보 전달을 효율적으로 만듭니다. 이 구조는 이미지 입력을 통해 자연어 응답을 생성하는 instruction-following MLLM의 기반이 되었습니다.• None SigLIP(Sigmoid Loss for Language-Image Pretraining)은 CLIP의 개선 버전으로, contrastive learning 시 softmax 기반의 cross-entropy loss 대신 sigmoid 기반의 binary loss를 사용합니다. 이 방식은 쌍마다 독립적으로 정합 여부를 학습하므로 학습이 더 직관적이고 확장성이 뛰어나며, 특히 대규모 데이터에서 안정적인 성능을 보입니다. 구조적으로는 CLIP과 유사하지만, 학습 방식의 차이를 통해 멀티모달 표현 학습의 효율성과 성능을 모두 향상시켰습니다.LLM 그리고 MLLM의 발전, 그리고 모델의 크기와 표현 능력이 비약적으로 증가함에 따라, 단순한 텍스트 생성기를 넘어 실제 환경과 상호작용할 수 있는 AI Agent의 가능성도 함께 열리게 되었습니다.AI Agent는 주어진 목표를 달성하기 위해 환경과 지속적으로 상호작용하며, 계획을 수립하고 도구를 사용하며 행동을 실행하는 지능형 시스템입니다.최근에는 대형 언어 모델을 기반으로 한 언어 중심의 agent가 등장하면서,자연어 명령을 이해하고 복잡한 문제를 단계적으로 해결하거나 다양한 디지털 환경에서 자율적으로 작업을 수행하는 사례가 빠르게 증가하고 있습니다.AI Agent는 일반적으로 네 가지 핵심 구성 요소인 planning, tool use, action, memory를 기반으로 작동합니다.Planning은 주어진 목표를 달성하기 위한 일련의 작업 순서를 설계하는 과정이며, tool use는 외부 도구나 API를 호출하여 작업을 수행하는 단계입니다.Action은 실제로 계획된 작업을 실행하는 것을 의미하며, memory는 과거의 작업 기록이나 상태를 저장하고 이를 기반으로 이후 판단에 반영하는 역할을 합니다.이처럼 AI Agent는 단순한 응답 생성을 넘어, 능동적인 판단과 실행을 반복하면서 복잡한 작업을 수행할 수 있는 지능적 시스템으로 발전하고 있습니다.• None 현재도 많이 쓰이고 있는 Prompting 기법이자 LLM Agent의 세상을 열어준 Chain-of-Thought(CoT)은 복잡한 문제를 해결할 때 중간 추론 단계를 명시적으로 거치도록 유도함으로써 reasoning 능력을 향상시킨 접근입니다. Prompting 단계에서 문제를 풀게된 Chain-of-Thought(생각의 논리)를 함께 제공해주어 추론 단계에서도 비슷한 논리를 사용하여 유저의 instruction을 해결할 수 있도록 하는 Prompting 기법입니다.• None ReAct 논문은 Reasoning + Acting을 의미하는 이름으로 LLM이 Reasoning과 Acting을 번갈아 수행하도록 유도하는 프롬프트 기반 프레임워크를 제안합니다. 모델
2025.06.25
emoji
좋아요
emoji
별로에요
logo
밑바닥부터 시작하는 실시간 데이터 파이프라인 : Debezium 톺아보기
밑바닥부터 시작하는 실시간 데이터 파이프라인 : Debezium 톺아보기안녕하세요, 여기어때컴퍼니 공통플랫폼개발팀 유니입니다.기존에는 데이터 웨어하우스에 일 또는 시간 단위 배치로 적재 했지만, 데이터를 더 빠르게 반영할 필요성이 커졌고, 이를 위해 CDC(Change Data Capture)를 도입하게 되었습니다. 결과적으로 CDC를 포함하여 다양한 서비스 운영과 분석에 필요한 실시간 데이터 파이프라인 구축을 목표로 하였습니다.이번 글에서는 신입 데이터 엔지니어가 CDC를 구축하기 위해 밑바닥부터 낱낱이 분석한 CDC 오픈 소스 플랫폼 Debezium의 동작 과정을 다음과 같이 소개 드리려 합니다.1. Debezium으로 로그 기반 CDC 구현하기2. Kafka Connect와 Debezium 톺아보기3. Debezium 실전 적용기4. 마무리하며1. Debezium으로 로그 기반 CDC 구현하기1️⃣ 변경 사항을 감지하는 방법데이터베이스에서 발생한 변경 사항을 감지하는 방법에는 여러 가지가 있습니다. 별도의 테이블에 변경 내역을 저장하는 방식(Trigger 기반), 주기적으로 쿼리를 실행하여 이전 데이터와 비교하는 방식(Query 기반), 변경 시각을 컬럼에 남기고 비교하는 방식(Timestamp 기반)등 이 있습니다.그중에서도 데이터베이스에서 내부적으로 변경 사항을 저장하는 트랜잭션 로그(e.g - MySQL의 binlog, PostgreSQL의 WAL)를 활용하는 로그 기반 CDC를 선택했습니다. 이 방식은 로그 파일을 읽어 처리하기 때문에 원본 데이터베이스에 부하를 적게 줍니다. 또한 트랜잭션 로그에는 최종 값뿐만 아니라 이전 값과 이후 값이 모두 기록되어 데이터의 최신 상태를 일관성 있게 유지할 수 있습니다.2️⃣ DebeziumDebezium은 로그 기반 CDC를 지원하는 오픈소스 플랫폼으로, Kafka Connect 프레임워크 위에서 동작합니다. Debezium은 소스 커넥터로서 MySQL, PostgreSQL, MongoDB 등 다양한 데이터베이스의 트랜잭션 로그에서 변경 사항을 캡처해 Kafka로 스트리밍합니다.이렇게 Kafka로 들어온 데이터는 Sink 커넥터를 통해 실시간으로 타겟 시스템으로 보내져, 데이터를 동기화합니다. 특히, 데이터 웨어하우스뿐만 아니라 여러 가지 다양한 시스템으로의 확장 가능성을 고려했을 때, Kafka 기반의 변경 데이터 스트리밍을 지원하는 Debezium이 적합한 선택이었습니다.2. Kafka Connect와 Debezium 톺아보기Debezium을 실행하려면 먼저 Kafka Connect 환경을 구성해야 합니다. Kafka Connect는 외부 시스템과 Kafka 간의 연계를 담당하며, 데이터를 외부에서 가져오거나 다른 시스템으로 전달할 수 있도록 돕습니다. Debezium은 Kafka Connect의 Source 커넥터로 동작하며, 데이터베이스의 변경 이벤트를 실시간으로 캡처해 Kafka로 전달 가능한 형태로 변환합니다. 따라서 Debezium을 효과적으로 활용하려면 Kafka Conn
kafka
mysql
6/25/2025
logo
밑바닥부터 시작하는 실시간 데이터 파이프라인 : Debezium 톺아보기
밑바닥부터 시작하는 실시간 데이터 파이프라인 : Debezium 톺아보기안녕하세요, 여기어때컴퍼니 공통플랫폼개발팀 유니입니다.기존에는 데이터 웨어하우스에 일 또는 시간 단위 배치로 적재 했지만, 데이터를 더 빠르게 반영할 필요성이 커졌고, 이를 위해 CDC(Change Data Capture)를 도입하게 되었습니다. 결과적으로 CDC를 포함하여 다양한 서비스 운영과 분석에 필요한 실시간 데이터 파이프라인 구축을 목표로 하였습니다.이번 글에서는 신입 데이터 엔지니어가 CDC를 구축하기 위해 밑바닥부터 낱낱이 분석한 CDC 오픈 소스 플랫폼 Debezium의 동작 과정을 다음과 같이 소개 드리려 합니다.1. Debezium으로 로그 기반 CDC 구현하기2. Kafka Connect와 Debezium 톺아보기3. Debezium 실전 적용기4. 마무리하며1. Debezium으로 로그 기반 CDC 구현하기1️⃣ 변경 사항을 감지하는 방법데이터베이스에서 발생한 변경 사항을 감지하는 방법에는 여러 가지가 있습니다. 별도의 테이블에 변경 내역을 저장하는 방식(Trigger 기반), 주기적으로 쿼리를 실행하여 이전 데이터와 비교하는 방식(Query 기반), 변경 시각을 컬럼에 남기고 비교하는 방식(Timestamp 기반)등 이 있습니다.그중에서도 데이터베이스에서 내부적으로 변경 사항을 저장하는 트랜잭션 로그(e.g - MySQL의 binlog, PostgreSQL의 WAL)를 활용하는 로그 기반 CDC를 선택했습니다. 이 방식은 로그 파일을 읽어 처리하기 때문에 원본 데이터베이스에 부하를 적게 줍니다. 또한 트랜잭션 로그에는 최종 값뿐만 아니라 이전 값과 이후 값이 모두 기록되어 데이터의 최신 상태를 일관성 있게 유지할 수 있습니다.2️⃣ DebeziumDebezium은 로그 기반 CDC를 지원하는 오픈소스 플랫폼으로, Kafka Connect 프레임워크 위에서 동작합니다. Debezium은 소스 커넥터로서 MySQL, PostgreSQL, MongoDB 등 다양한 데이터베이스의 트랜잭션 로그에서 변경 사항을 캡처해 Kafka로 스트리밍합니다.이렇게 Kafka로 들어온 데이터는 Sink 커넥터를 통해 실시간으로 타겟 시스템으로 보내져, 데이터를 동기화합니다. 특히, 데이터 웨어하우스뿐만 아니라 여러 가지 다양한 시스템으로의 확장 가능성을 고려했을 때, Kafka 기반의 변경 데이터 스트리밍을 지원하는 Debezium이 적합한 선택이었습니다.2. Kafka Connect와 Debezium 톺아보기Debezium을 실행하려면 먼저 Kafka Connect 환경을 구성해야 합니다. Kafka Connect는 외부 시스템과 Kafka 간의 연계를 담당하며, 데이터를 외부에서 가져오거나 다른 시스템으로 전달할 수 있도록 돕습니다. Debezium은 Kafka Connect의 Source 커넥터로 동작하며, 데이터베이스의 변경 이벤트를 실시간으로 캡처해 Kafka로 전달 가능한 형태로 변환합니다. 따라서 Debezium을 효과적으로 활용하려면 Kafka Conn
2025.06.25
kafka
mysql
emoji
좋아요
emoji
별로에요
logo
조직에서 AI 코딩 솔루션 도입, 어떻게 시작할까?
요즘 개발자들 사이에서 AI, Coding, Vibe coding 같은 키워드가 뜨거운 감자입니다.GitHub Copilot으로 시작된 AI 코딩 어시스턴트 열풍은 이제 Cursor, Claude Dev, v0 같은 다양한 도구들로 확산되면서 개발자들의 일상을 바꾸고 있죠.하지만 대부분의 이런 도구들은 개인 개발자의 생산성 향상이나 개인 프로젝트에서의 코딩 경험 개선에 초점을 맞추고 있습니다.문제는 기업이나 조직에서 이런 개인용 솔루션들을 그대로 도입하기에는 여러 제약이 따른다는 점입니다.Cursor 같은 인기 도구들을 팀 전체에 도입하려면 상당한 비용이 들고, 무엇보다 회사의 중요한 코드가 외부 AI 모델 학습에 사용될 수 있다는 보안 우려가 있죠.그래서 조직에서는 단순히 '좋은 개인용 도구'를 넘어서, 보안성, 확장성, 거버넌스, 기존 시스템과의 통합성까지 종합적으로 고려한 솔루션이 필요합니다.하지만 막상 도입을 검토하려 하면 시장에 나와 있는 솔루션들이 너무 많고, 각각의 특징과 장단점을 파악하기가 쉽지 않습니다.어떤 기준으로 비교해야 할지, 우리 조직에는 무엇이 적합할지 판단하기 어려운 게 현실이죠.이 글에서는 조직 차원에서 AI 코드 솔루션 도입을 고려할 때 꼭 확인해야 할 기본 사항들로 주요 솔루션들을 정리하였고, 사용 목적과 환경에 따라 우선적으로 검토해 볼 솔루션을 정리하였습니다.다만 AI 코딩 분야가 워낙 빠르게 변화하고 있어서, 일부 정보는 부정확할 수 있으며 업데이트가 필요할 수 있다는 점 미리 양해 부탁드리고,직접 사용해 보거나 검토해 보신 분들이 댓글 달아주시면 감사드리겠습니다.이 외에도 Claude Code, Aider, Goose, Codegeex, 미스트랄 코드 등의 여러 솔루션들이 계속 출시되고 있습니다.그 외에도 다른 기준으로 솔루션 적용을 생각해 보자면 아래와 같이 단계적 도입이나 팀의 역할 특성에 따른 도입 방법 검토도 가능할 것 같습니다.• None 초기: Tabby(코드 보안 필요 시)나 기존 솔루션 Trial 버전으로 POC 진행• None 중간: Cursor 또는 GitLab Duo 등의 팀단위 요금제 사용• None 성숙: IBM watsonx 또는 Amazon Q로 엔터프라이즈 레벨 솔루션 도입• None 데이터 보안 및 프라이버시: 코드가 외부 모델 훈련에 사용되지 않는지 확인• None 기존 워크플로우 통합: 현재 사용 중인 IDE, CI/CD, VCS와의 호환성• None 지원 및 SLA: 엔터프라이즈급 기술 지원 가능 여부결론적으로 AI 코드 솔루션의 선택은 조직의 규모, 기술 환경, 보안 요구사항, 예산 등 다양한 요소를 종합적으로 고려해야 합니다.개인용 도구에서 시작하여 점진적으로 엔터프라이즈급 솔루션으로 발전시키는 단계적 접근이 바람직하며,파일럿 프로젝트를 통한 검증 과정을 거쳐 조직/기업으로의 확산을 추진하실 때 본 글이 도움이 되었으면 좋겠습니다.
6/25/2025
logo
조직에서 AI 코딩 솔루션 도입, 어떻게 시작할까?
요즘 개발자들 사이에서 AI, Coding, Vibe coding 같은 키워드가 뜨거운 감자입니다.GitHub Copilot으로 시작된 AI 코딩 어시스턴트 열풍은 이제 Cursor, Claude Dev, v0 같은 다양한 도구들로 확산되면서 개발자들의 일상을 바꾸고 있죠.하지만 대부분의 이런 도구들은 개인 개발자의 생산성 향상이나 개인 프로젝트에서의 코딩 경험 개선에 초점을 맞추고 있습니다.문제는 기업이나 조직에서 이런 개인용 솔루션들을 그대로 도입하기에는 여러 제약이 따른다는 점입니다.Cursor 같은 인기 도구들을 팀 전체에 도입하려면 상당한 비용이 들고, 무엇보다 회사의 중요한 코드가 외부 AI 모델 학습에 사용될 수 있다는 보안 우려가 있죠.그래서 조직에서는 단순히 '좋은 개인용 도구'를 넘어서, 보안성, 확장성, 거버넌스, 기존 시스템과의 통합성까지 종합적으로 고려한 솔루션이 필요합니다.하지만 막상 도입을 검토하려 하면 시장에 나와 있는 솔루션들이 너무 많고, 각각의 특징과 장단점을 파악하기가 쉽지 않습니다.어떤 기준으로 비교해야 할지, 우리 조직에는 무엇이 적합할지 판단하기 어려운 게 현실이죠.이 글에서는 조직 차원에서 AI 코드 솔루션 도입을 고려할 때 꼭 확인해야 할 기본 사항들로 주요 솔루션들을 정리하였고, 사용 목적과 환경에 따라 우선적으로 검토해 볼 솔루션을 정리하였습니다.다만 AI 코딩 분야가 워낙 빠르게 변화하고 있어서, 일부 정보는 부정확할 수 있으며 업데이트가 필요할 수 있다는 점 미리 양해 부탁드리고,직접 사용해 보거나 검토해 보신 분들이 댓글 달아주시면 감사드리겠습니다.이 외에도 Claude Code, Aider, Goose, Codegeex, 미스트랄 코드 등의 여러 솔루션들이 계속 출시되고 있습니다.그 외에도 다른 기준으로 솔루션 적용을 생각해 보자면 아래와 같이 단계적 도입이나 팀의 역할 특성에 따른 도입 방법 검토도 가능할 것 같습니다.• None 초기: Tabby(코드 보안 필요 시)나 기존 솔루션 Trial 버전으로 POC 진행• None 중간: Cursor 또는 GitLab Duo 등의 팀단위 요금제 사용• None 성숙: IBM watsonx 또는 Amazon Q로 엔터프라이즈 레벨 솔루션 도입• None 데이터 보안 및 프라이버시: 코드가 외부 모델 훈련에 사용되지 않는지 확인• None 기존 워크플로우 통합: 현재 사용 중인 IDE, CI/CD, VCS와의 호환성• None 지원 및 SLA: 엔터프라이즈급 기술 지원 가능 여부결론적으로 AI 코드 솔루션의 선택은 조직의 규모, 기술 환경, 보안 요구사항, 예산 등 다양한 요소를 종합적으로 고려해야 합니다.개인용 도구에서 시작하여 점진적으로 엔터프라이즈급 솔루션으로 발전시키는 단계적 접근이 바람직하며,파일럿 프로젝트를 통한 검증 과정을 거쳐 조직/기업으로의 확산을 추진하실 때 본 글이 도움이 되었으면 좋겠습니다.
2025.06.25
emoji
좋아요
emoji
별로에요
logo
늘어가는 조회트래픽 Elasticsearch로 분산시키기
네이버 사내 기술 교류 행사인 NAVER ENGINEERING DAY 2025(5월)에서 발표되었던 세션을 공개합니다. 발표 내용점점 늘어가던 플레이스 조회트래픽을 메인DB로부터 Elasticsearch(Opensearch)로 분산한 경험을 공유합니다. (#Elasticsearch #Opensearch #트래픽 분산 #CQRS #slow query #feature toggle #feature flag #자동 fallback)강의 대상트래픽 분산 및 Elasticsearch(Opensearch)에 관심이 있으신 분들난이도 : 하~중하 (트래픽 분산경험 / ES 운용경험이 없으신 주니어 개발자분들도 이해하시기 좋은 정도)목차조회 DB 도입 배경기존 리뷰조회 flow호출량이 점점 늘어가던 플랫폼, 증가하는 조회필터 / 정렬조건 DB 인덱스 추가의 한계조회용 DB를 도입한다면?Elasticsearch를 조회DB로 선택한 이유조회용 DB로 도입하기 위한 조건들 조회용 DB 후보들, ES 선택 이유ES 개념정리 - 역인덱스 구조, 실제 예시, 도입 시 고려해야 할 점, 사내 운영지원, 장단점 정리조회DB 도입과정 및 결과ES 필드매핑DB와의 데이터 동기화, 리뷰 작성 및 조회 flowCQRS 측면점진적 도입 w/ feature toggle, 자동 fallback 시스템ES 도입결과 및 운용현황ES 운영 tips 및 Opensearch로의 전환매핑 tip: keyword vs text, object vs nested, _id의 별도 매핑샤드 tip: 권장 샤드 크기 및 replica 수, _routing 활용Opensearch 소개 및 ES와의 성능 비교 NAVER ENGINEERING DAY란? NAVER에서는 사내 개발 경험과 기술 트렌드를 교류를 할 수 있는 프로그램이 많이 있습니다. 그중 매회 평균 70개 이상의 발표가 이루어지는 NAVER ENGINEERING DAY를 빼놓을 수 없는데요. 2016년부터 시작된 ENGINEERING DAY는 실무에서의 기술 개발 경험과 새로운 기술과 플랫폼 도입 시 유용하게 활용될 수 있는 팁 등을 공유하며 서로 배우고 성장하는 네이버의 대표적인 사내 개발자 행사입니다. 올해 진행된 NAVER ENGINEERING DAY 2025(5월)의 일부 세션을 공개합니다.
elasticsearch
6/25/2025
logo
늘어가는 조회트래픽 Elasticsearch로 분산시키기
네이버 사내 기술 교류 행사인 NAVER ENGINEERING DAY 2025(5월)에서 발표되었던 세션을 공개합니다. 발표 내용점점 늘어가던 플레이스 조회트래픽을 메인DB로부터 Elasticsearch(Opensearch)로 분산한 경험을 공유합니다. (#Elasticsearch #Opensearch #트래픽 분산 #CQRS #slow query #feature toggle #feature flag #자동 fallback)강의 대상트래픽 분산 및 Elasticsearch(Opensearch)에 관심이 있으신 분들난이도 : 하~중하 (트래픽 분산경험 / ES 운용경험이 없으신 주니어 개발자분들도 이해하시기 좋은 정도)목차조회 DB 도입 배경기존 리뷰조회 flow호출량이 점점 늘어가던 플랫폼, 증가하는 조회필터 / 정렬조건 DB 인덱스 추가의 한계조회용 DB를 도입한다면?Elasticsearch를 조회DB로 선택한 이유조회용 DB로 도입하기 위한 조건들 조회용 DB 후보들, ES 선택 이유ES 개념정리 - 역인덱스 구조, 실제 예시, 도입 시 고려해야 할 점, 사내 운영지원, 장단점 정리조회DB 도입과정 및 결과ES 필드매핑DB와의 데이터 동기화, 리뷰 작성 및 조회 flowCQRS 측면점진적 도입 w/ feature toggle, 자동 fallback 시스템ES 도입결과 및 운용현황ES 운영 tips 및 Opensearch로의 전환매핑 tip: keyword vs text, object vs nested, _id의 별도 매핑샤드 tip: 권장 샤드 크기 및 replica 수, _routing 활용Opensearch 소개 및 ES와의 성능 비교 NAVER ENGINEERING DAY란? NAVER에서는 사내 개발 경험과 기술 트렌드를 교류를 할 수 있는 프로그램이 많이 있습니다. 그중 매회 평균 70개 이상의 발표가 이루어지는 NAVER ENGINEERING DAY를 빼놓을 수 없는데요. 2016년부터 시작된 ENGINEERING DAY는 실무에서의 기술 개발 경험과 새로운 기술과 플랫폼 도입 시 유용하게 활용될 수 있는 팁 등을 공유하며 서로 배우고 성장하는 네이버의 대표적인 사내 개발자 행사입니다. 올해 진행된 NAVER ENGINEERING DAY 2025(5월)의 일부 세션을 공개합니다.
2025.06.25
elasticsearch
emoji
좋아요
emoji
별로에요
logo
SealedSecret을 활용한 Kubernetes Secret 관리 및 GitOps 통합
Kubernetes 환경에서 효과적인 GitOps를 위해서는 가능한 모든 Kubernetes 리소스를 Manifest 파일로 관리해야 합니다.다만, 여기서 Secret 리소스에 대해서는 고민이 필요합니다.일반적으로 Secret은 Kubernetes 환경에서 비밀번호, API 키, 인증 토큰 등의 민감 정보를 저장하기 위해 사용되는 리소스입니다.base64로 인코딩된 데이터를 포함하며, ConfigMap과 유사한 방식으로 Pod 내에서 환경변수나 파일 형태로 전달될 수 있습니다.그러나 Secret 자체는 기본적으로 암호화되지 않고 etcd에 저장되기 때문에, 특별한 보안 설정이 없으면 민감 정보가 노출될 위험이 있습니다.따라서 Secret을 안전하게 관리하기 위해서는 별도의 보안 조치가 필요하며, 특히 이를 GitOps 환경에서 다루는 것은 주의가 필요합니다.효과적인 GitOps를 위해서는 애플리케이션 및 인프라 구성은 물론, 모든 Kubernetes 리소스 구성을 Code Repo(=Git)에 저장하고 이를 기반으로 모든 리소스를 관리해야 합니다.그러나 Secret은 민감한 데이터를 포함하고 있어 Git 저장소에 직접 저장하는 것이 보안상 매우 위험합니다.manifest 에는 단순히 base64 인코딩한 값이이 저장되기 때문에, 별도 처리없이 Code Repo에서 관리한다면,사실상 Code Repo 에 접근이 가능한 사용자/개발자에게 민감정보가 오픈됩니다.그렇다고, Code Repo 의 접근권한을 통제하거나, Secret을 수동으로 클러스터에 적용하면 GitOps 철학에 맞지도 않고, 효율성이 떨어집니다.따라서 GitOps 를 유지하면서도 민감 정보를 안전하게 다루는 방법이 필요합니다.SealedSecret은 GitOps 환경에서 Kubernetes Secret을 안전하게 관리할 수 있도록 도와주는 오픈소스 입니다.사용자는 kubeseal CLI를 이용해 Secret을 암호화한 SealedSecret을 생성하고, 이를 Code Repo에 저장할 수 있습니다.SealedSecret은 Kubernetes 클러스터에서 SealedSecrets Controller에 의해 자동으로 복호화되어 실제 Secret 리소스로 변환됩니다.이렇게 하면 민감 정보가 암호화된 상태로 Code Repo에 저장되므로 보안이 강화되고, 효율적인 GitOps도 유지할 수 있습니다.기본적으로 Code Repo 에는 암호화된 SealedSecret 이 관리되고, Controller 를 통해서 클러스터 내부에서 복호화합니다.• None 개발자는 Secret 을 SealedSecret Controller 를 통해서 암호화된 SealedSecret.yaml 파일 생성• None 개발자는 Code Repo 에 SealedSecret.yaml 을 Commit아래 2가지 설치가 필요합니다• None kubeseal: 암호화된 SealedSecret 생성하기 위한 CLI 도구. Kuberentes 클러스터에 접근 가능한 환경에 설치아래와 같이 helm 명령어로 설치가 가능합니다.설치시에 key 만료 주기에 대한 설정에 대한 고민은 필요합니다.특히 keyttl 의 경우 키가 만료되기 전에 해당 Key 로 암호화된 모든 SealedSecret 은 갱신이 되어야 하니, 보안과 관리 효율성 측면을 고려해서 적절한 값 선택이 필요하며,이미 생성된 key 에 대한 만료주기 변경은 불가합니다.Kubernetes 클러스터에 접근 가능한 Client 에 아래처럼 설치합니다. (linux 기반)SealedSecret 은 아래와 같이 생성이 가능합니다.Code Repo 에 commit 한다면 민감정보가 노출됩니다.암/복호화 솔루션의 경우, 결국 암/복호화 key 를 안전하게, 잘 관리하는 것이 핵심입니다.따라서 key 를 적절하게 교체해주고, 별도 저장소 key 백업 등을 통해서 분실시 데이터 복구방법 등에 대해서도 사전에 고려하는것이 필요합니다.key 추출 등의 기능도 제공하니, 이를 활용한 구성을 권장드립니다.아직 0.3 버전입니다. 굉장히 복잡한 동작을 하는 오픈소스는 아니지만, 향후 업그레이드시 이슈 가능성 등은 감안해서 도입이 필요합니다.SealedSecret은 Kubernetes 환경에서 민감정보를 안전하게 관리하고 GitOps 에 통합하기 위해 간단하면서도 효과적인 오픈소스입니다.Code Repo 에서는 암호화된 SealedSecret 만을 관리하기 때문에, GitOps 통합과 보안성 둘다 확보할 수 있습니다.설정이 간단하고 운영 부담이 적다는 장점이 있지만, Vault나 ESO처럼 동적 Secret 발급, 외부 스토리지 연동 등의 고급 기능을 지원하지 않는점은 고려해서 도입이 필요합니다.
kubernetes
6/24/2025
logo
SealedSecret을 활용한 Kubernetes Secret 관리 및 GitOps 통합
Kubernetes 환경에서 효과적인 GitOps를 위해서는 가능한 모든 Kubernetes 리소스를 Manifest 파일로 관리해야 합니다.다만, 여기서 Secret 리소스에 대해서는 고민이 필요합니다.일반적으로 Secret은 Kubernetes 환경에서 비밀번호, API 키, 인증 토큰 등의 민감 정보를 저장하기 위해 사용되는 리소스입니다.base64로 인코딩된 데이터를 포함하며, ConfigMap과 유사한 방식으로 Pod 내에서 환경변수나 파일 형태로 전달될 수 있습니다.그러나 Secret 자체는 기본적으로 암호화되지 않고 etcd에 저장되기 때문에, 특별한 보안 설정이 없으면 민감 정보가 노출될 위험이 있습니다.따라서 Secret을 안전하게 관리하기 위해서는 별도의 보안 조치가 필요하며, 특히 이를 GitOps 환경에서 다루는 것은 주의가 필요합니다.효과적인 GitOps를 위해서는 애플리케이션 및 인프라 구성은 물론, 모든 Kubernetes 리소스 구성을 Code Repo(=Git)에 저장하고 이를 기반으로 모든 리소스를 관리해야 합니다.그러나 Secret은 민감한 데이터를 포함하고 있어 Git 저장소에 직접 저장하는 것이 보안상 매우 위험합니다.manifest 에는 단순히 base64 인코딩한 값이이 저장되기 때문에, 별도 처리없이 Code Repo에서 관리한다면,사실상 Code Repo 에 접근이 가능한 사용자/개발자에게 민감정보가 오픈됩니다.그렇다고, Code Repo 의 접근권한을 통제하거나, Secret을 수동으로 클러스터에 적용하면 GitOps 철학에 맞지도 않고, 효율성이 떨어집니다.따라서 GitOps 를 유지하면서도 민감 정보를 안전하게 다루는 방법이 필요합니다.SealedSecret은 GitOps 환경에서 Kubernetes Secret을 안전하게 관리할 수 있도록 도와주는 오픈소스 입니다.사용자는 kubeseal CLI를 이용해 Secret을 암호화한 SealedSecret을 생성하고, 이를 Code Repo에 저장할 수 있습니다.SealedSecret은 Kubernetes 클러스터에서 SealedSecrets Controller에 의해 자동으로 복호화되어 실제 Secret 리소스로 변환됩니다.이렇게 하면 민감 정보가 암호화된 상태로 Code Repo에 저장되므로 보안이 강화되고, 효율적인 GitOps도 유지할 수 있습니다.기본적으로 Code Repo 에는 암호화된 SealedSecret 이 관리되고, Controller 를 통해서 클러스터 내부에서 복호화합니다.• None 개발자는 Secret 을 SealedSecret Controller 를 통해서 암호화된 SealedSecret.yaml 파일 생성• None 개발자는 Code Repo 에 SealedSecret.yaml 을 Commit아래 2가지 설치가 필요합니다• None kubeseal: 암호화된 SealedSecret 생성하기 위한 CLI 도구. Kuberentes 클러스터에 접근 가능한 환경에 설치아래와 같이 helm 명령어로 설치가 가능합니다.설치시에 key 만료 주기에 대한 설정에 대한 고민은 필요합니다.특히 keyttl 의 경우 키가 만료되기 전에 해당 Key 로 암호화된 모든 SealedSecret 은 갱신이 되어야 하니, 보안과 관리 효율성 측면을 고려해서 적절한 값 선택이 필요하며,이미 생성된 key 에 대한 만료주기 변경은 불가합니다.Kubernetes 클러스터에 접근 가능한 Client 에 아래처럼 설치합니다. (linux 기반)SealedSecret 은 아래와 같이 생성이 가능합니다.Code Repo 에 commit 한다면 민감정보가 노출됩니다.암/복호화 솔루션의 경우, 결국 암/복호화 key 를 안전하게, 잘 관리하는 것이 핵심입니다.따라서 key 를 적절하게 교체해주고, 별도 저장소 key 백업 등을 통해서 분실시 데이터 복구방법 등에 대해서도 사전에 고려하는것이 필요합니다.key 추출 등의 기능도 제공하니, 이를 활용한 구성을 권장드립니다.아직 0.3 버전입니다. 굉장히 복잡한 동작을 하는 오픈소스는 아니지만, 향후 업그레이드시 이슈 가능성 등은 감안해서 도입이 필요합니다.SealedSecret은 Kubernetes 환경에서 민감정보를 안전하게 관리하고 GitOps 에 통합하기 위해 간단하면서도 효과적인 오픈소스입니다.Code Repo 에서는 암호화된 SealedSecret 만을 관리하기 때문에, GitOps 통합과 보안성 둘다 확보할 수 있습니다.설정이 간단하고 운영 부담이 적다는 장점이 있지만, Vault나 ESO처럼 동적 Secret 발급, 외부 스토리지 연동 등의 고급 기능을 지원하지 않는점은 고려해서 도입이 필요합니다.
2025.06.24
kubernetes
emoji
좋아요
emoji
별로에요
logo
 알려지지 않은 미지를 탐험하다: Co-STORM으로 정보를 찾는 새로운 방법
정보의 바다에서 길을 잃으셨나요?여러분은 끝없이 펼쳐진 정보의 바다에서 길을 잃어본 적이 있나요?학술 연구를 하거나, 시장을 분석하거나, 중요한 의사 결정을 해야 할 때 복잡한 정보들 속에서 우리는 종종 난관에 부딪히곤 합니다.무엇을 찾아야 할지 명확히 알고 있는 '알려진 미지(Known Unknowns)'는 이제 어렵지 않습니다.최신 AI 챗봇이나 검색 엔진을 통해 쉽게 답을 찾을 수 있죠. "GPT-4의 최신 업데이트는 무엇인가요?"와 같은 구체적인 질문에는 정확한 답변을 얻을 수 있습니다.하지만 진짜 어려운 건 우리가 무엇을 모르는지조차 모르는 영역, 바로 '알려지지 않은 미지(Unknown Unknowns)'를 탐색할 때입니다.이는 단순히 정보를 검색하는 것이 아닌, 우리가 미처 생각하지 못했던 새로운 관점과 지식을 발견하는 것을 의미합니다.그렇다면 왜 기존의 시스템들은 이러한 '알려지지 않은 미지' 탐색에 한계를 보였을까요?• None AI 챗봇의 한계: 구체적인 질문에는 강하지만, 사용자가 미처 생각하지 못한 영역을 발견하는 데는 부족합니다.• None 질의응답 시스템의 수동성: 사용자가 모든 질문을 직접 해야 하다 보니, 새로운 관점을 발견하기 어렵습니다.• None• None 사용자의 질문에 수동적으로만 반응합니다.• None 기존 관점만 강화하는 쪽으로 대화를 만들어냅니다.• None 특히 사전 지식이 부족한 사용자는 더 큰 어려움을 겪습니다.이러한 한계를 극복하기 위해 Co-STORM - Collaborative Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking이 탄생했습니다.Co-STORM은 사용자가 '알려지지 않은 미지'를 효과적으로 탐색하고, 새로운 지식의 지평을 넓힐 수 있도록 도와주는 혁신적인 도구입니다.앞서 살펴본 바와 같이, 기존 정보 시스템들은 우리가 무엇을 모르는지조차 인지하지 못하는 '알려지지 않은 미지(Unknown Unknowns)'를 탐색하는 데 한계를 가지고 있었습니다.이러한 문제에 대한 해답을 찾기 위해 Co-STORM은 근본적인 아이디어, 즉 협력적 담론을 통한 학습 - Learning through Collaborative Discourse에 집중했습니다.이 아이디어는 일상생활 속에서 흔히 접할 수 있는 교육 시나리오에서 영감을 받았습니다.아이들이나 학생들이 부모나 교사와의 대화를 듣고 참여하면서 자연스럽게 지식을 습득하고 이해를 깊어지게 하는 방식을 여러 언어 모델(LM) 에이전트 간에서도 이루어질 수 있도록 차용하게 한 것이죠.사용자가 모든 질문을 던져야 하는 기존의 질의 응답 시스템과는 달리, 이런 방식을 택하게 되면서 사용자는 “알려지지 않은 미지”의 정보를 우연히 발견하며 학습을 진행할 수 있게 되었습니다.Co-STORM은 사용자가 능동적으로 참여하거나 대화를 관찰하면서 “알려지지 않은 미지”를 발견하고 복잡한 정보를 탐색하며 학습할 수 있도록, “협력적 담론”이라는 방법론을 활용합니다.실제로 이 방법론은 아래와 같은 플로우로 구현되어 있으며 → 플로우의 끝에서 다양한 관점이 녹아있는 훌륭한 리서치 보고서를 얻을 수 있다는 것을 확인할 수 있습니다.이 플로우 전체 과정 중에 가장 중요한 5가지 주요 과정은 다음과 같습니다.Co-STORM은 다음과 같은 4가지 주요 역할을 수행할 수 있는 에이전트를 마련하고 있습니다.A. CoStormExpert (전문가 에이전트)• None 특정 관점에서 정보를 제공하고 분석• None 대화에 전문적 깊이 추가• None 대화가 정체되거나 반복될 때 새로운 질문 생성• None 사용되지 않은 정보를 기반으로 새로운 관점 주입• None 대화의 균형과 다양성 유지• None 실제 사용자의 의도에 따른 질문 생성• None 다른 전문가들이 특화된 관점을 제시할 수 있도록 기반 마련플로우 전체에서 활약하는 전문가 에이전트는 아래와 같이 1) 일반적인 전문가와 2) 특정 초점에 맞는 전문가를 생성할 수 있도록 구분되어 있으며,각 전문가 에이전트는 주제에 대한 배경 정보를 갖추는 것과 더불어 다양성, 대립성, 관련성, 균형을 유지할 수 있도록 생성된다는 것을 확인할 수 있습니다.• None 다양성: 서로 다른 관점, 역할, 소속을 가진 전문가들• None 대립성: 반대 입장을 가진 전문가들 포함• None 관련성: 주제와 직접적으로 연결된 전문가들3) 사용자 참여 과정 (사용자 개입 여부 판단)다양한 전문가 에이전트 간의 협력적 담론이 이어지다보면, 실제 인간의 대화처럼 질문과 답변이 균형있게 이루어지지 않는 케이스가 종종 발생할 수 있습니다.이러한 문제에서 벗어나기 위해 사용자가 대화의 중간에 참여할 수 있는 조건을 마련해두고, 이를 활용할 수 있도록 기능이 마련되어 있습니다.• None 대화가 정체되거나 반복될 때 새로운 질문으로 방향 전환Co-STORM에서는 대화 턴을 아래와 같은 우선순위를 통해 관리하고 있습니다.• None• None (참고) simulate_user=True, 이 옵션은 연구목적으로 사용되고 있습니다.• None• None 답변이 3회 (기본값) 이상 이어질 때 → 새로운 관점을 가지고 있는 질문을 해줄 수 있는 사회자를 개입시킵니다.• None 참고로 질문이 있을 경우, 사용자가 개입할 수 있습니다.• None• None 마지막 대화가 질문이 아닐 경우, 계속 답변할 수 있는 전문가를 순차적으로 투입하고 있습니다.• None 투입된 전문가들은 답변을 이어서 진행하게 됩니다.5) 전문가 동적 업데이트 과정대화 턴 배정 시 마지막 대화가 다시 질문이 되면, 해당 질문에 적절한 답변을 내놓을 수 있는 전문가들을 아래와 같이 다시 설정하게 됩니다.*실제로 focus, background_info가 다시 요청된 질문에 따라서 갱신되게 되며, 갱신된 정보를 토대로 새로운 전문가들이 생성되고 설정되게 됩니다.• None 더 적합한 전문가들이 필요할 때Co-STORM의 성능 평가 결과Co-STORM의 성능 평가는 자동 평가와 인적 평가의 두 가지 방식으로 이루어졌습니다.• N
6/24/2025
logo
 알려지지 않은 미지를 탐험하다: Co-STORM으로 정보를 찾는 새로운 방법
정보의 바다에서 길을 잃으셨나요?여러분은 끝없이 펼쳐진 정보의 바다에서 길을 잃어본 적이 있나요?학술 연구를 하거나, 시장을 분석하거나, 중요한 의사 결정을 해야 할 때 복잡한 정보들 속에서 우리는 종종 난관에 부딪히곤 합니다.무엇을 찾아야 할지 명확히 알고 있는 '알려진 미지(Known Unknowns)'는 이제 어렵지 않습니다.최신 AI 챗봇이나 검색 엔진을 통해 쉽게 답을 찾을 수 있죠. "GPT-4의 최신 업데이트는 무엇인가요?"와 같은 구체적인 질문에는 정확한 답변을 얻을 수 있습니다.하지만 진짜 어려운 건 우리가 무엇을 모르는지조차 모르는 영역, 바로 '알려지지 않은 미지(Unknown Unknowns)'를 탐색할 때입니다.이는 단순히 정보를 검색하는 것이 아닌, 우리가 미처 생각하지 못했던 새로운 관점과 지식을 발견하는 것을 의미합니다.그렇다면 왜 기존의 시스템들은 이러한 '알려지지 않은 미지' 탐색에 한계를 보였을까요?• None AI 챗봇의 한계: 구체적인 질문에는 강하지만, 사용자가 미처 생각하지 못한 영역을 발견하는 데는 부족합니다.• None 질의응답 시스템의 수동성: 사용자가 모든 질문을 직접 해야 하다 보니, 새로운 관점을 발견하기 어렵습니다.• None• None 사용자의 질문에 수동적으로만 반응합니다.• None 기존 관점만 강화하는 쪽으로 대화를 만들어냅니다.• None 특히 사전 지식이 부족한 사용자는 더 큰 어려움을 겪습니다.이러한 한계를 극복하기 위해 Co-STORM - Collaborative Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking이 탄생했습니다.Co-STORM은 사용자가 '알려지지 않은 미지'를 효과적으로 탐색하고, 새로운 지식의 지평을 넓힐 수 있도록 도와주는 혁신적인 도구입니다.앞서 살펴본 바와 같이, 기존 정보 시스템들은 우리가 무엇을 모르는지조차 인지하지 못하는 '알려지지 않은 미지(Unknown Unknowns)'를 탐색하는 데 한계를 가지고 있었습니다.이러한 문제에 대한 해답을 찾기 위해 Co-STORM은 근본적인 아이디어, 즉 협력적 담론을 통한 학습 - Learning through Collaborative Discourse에 집중했습니다.이 아이디어는 일상생활 속에서 흔히 접할 수 있는 교육 시나리오에서 영감을 받았습니다.아이들이나 학생들이 부모나 교사와의 대화를 듣고 참여하면서 자연스럽게 지식을 습득하고 이해를 깊어지게 하는 방식을 여러 언어 모델(LM) 에이전트 간에서도 이루어질 수 있도록 차용하게 한 것이죠.사용자가 모든 질문을 던져야 하는 기존의 질의 응답 시스템과는 달리, 이런 방식을 택하게 되면서 사용자는 “알려지지 않은 미지”의 정보를 우연히 발견하며 학습을 진행할 수 있게 되었습니다.Co-STORM은 사용자가 능동적으로 참여하거나 대화를 관찰하면서 “알려지지 않은 미지”를 발견하고 복잡한 정보를 탐색하며 학습할 수 있도록, “협력적 담론”이라는 방법론을 활용합니다.실제로 이 방법론은 아래와 같은 플로우로 구현되어 있으며 → 플로우의 끝에서 다양한 관점이 녹아있는 훌륭한 리서치 보고서를 얻을 수 있다는 것을 확인할 수 있습니다.이 플로우 전체 과정 중에 가장 중요한 5가지 주요 과정은 다음과 같습니다.Co-STORM은 다음과 같은 4가지 주요 역할을 수행할 수 있는 에이전트를 마련하고 있습니다.A. CoStormExpert (전문가 에이전트)• None 특정 관점에서 정보를 제공하고 분석• None 대화에 전문적 깊이 추가• None 대화가 정체되거나 반복될 때 새로운 질문 생성• None 사용되지 않은 정보를 기반으로 새로운 관점 주입• None 대화의 균형과 다양성 유지• None 실제 사용자의 의도에 따른 질문 생성• None 다른 전문가들이 특화된 관점을 제시할 수 있도록 기반 마련플로우 전체에서 활약하는 전문가 에이전트는 아래와 같이 1) 일반적인 전문가와 2) 특정 초점에 맞는 전문가를 생성할 수 있도록 구분되어 있으며,각 전문가 에이전트는 주제에 대한 배경 정보를 갖추는 것과 더불어 다양성, 대립성, 관련성, 균형을 유지할 수 있도록 생성된다는 것을 확인할 수 있습니다.• None 다양성: 서로 다른 관점, 역할, 소속을 가진 전문가들• None 대립성: 반대 입장을 가진 전문가들 포함• None 관련성: 주제와 직접적으로 연결된 전문가들3) 사용자 참여 과정 (사용자 개입 여부 판단)다양한 전문가 에이전트 간의 협력적 담론이 이어지다보면, 실제 인간의 대화처럼 질문과 답변이 균형있게 이루어지지 않는 케이스가 종종 발생할 수 있습니다.이러한 문제에서 벗어나기 위해 사용자가 대화의 중간에 참여할 수 있는 조건을 마련해두고, 이를 활용할 수 있도록 기능이 마련되어 있습니다.• None 대화가 정체되거나 반복될 때 새로운 질문으로 방향 전환Co-STORM에서는 대화 턴을 아래와 같은 우선순위를 통해 관리하고 있습니다.• None• None (참고) simulate_user=True, 이 옵션은 연구목적으로 사용되고 있습니다.• None• None 답변이 3회 (기본값) 이상 이어질 때 → 새로운 관점을 가지고 있는 질문을 해줄 수 있는 사회자를 개입시킵니다.• None 참고로 질문이 있을 경우, 사용자가 개입할 수 있습니다.• None• None 마지막 대화가 질문이 아닐 경우, 계속 답변할 수 있는 전문가를 순차적으로 투입하고 있습니다.• None 투입된 전문가들은 답변을 이어서 진행하게 됩니다.5) 전문가 동적 업데이트 과정대화 턴 배정 시 마지막 대화가 다시 질문이 되면, 해당 질문에 적절한 답변을 내놓을 수 있는 전문가들을 아래와 같이 다시 설정하게 됩니다.*실제로 focus, background_info가 다시 요청된 질문에 따라서 갱신되게 되며, 갱신된 정보를 토대로 새로운 전문가들이 생성되고 설정되게 됩니다.• None 더 적합한 전문가들이 필요할 때Co-STORM의 성능 평가 결과Co-STORM의 성능 평가는 자동 평가와 인적 평가의 두 가지 방식으로 이루어졌습니다.• N
2025.06.24
emoji
좋아요
emoji
별로에요
logo
테크 컨퍼런스 Tech-Verse 2025를 개최합니다
LY Corporation에서 오는 6월 30일과 7월 1일 양일간 테크 컨퍼런스 Tech-Verse 2025를 개최합니다.Tech-Verse는 전세계 LY Corporation 그룹사 소속 엔지니어와 디자이너, 프로덕트 매니저의 발표 세션으로 구성되며, 공식 사이트의 온라인 참가 등록에서 누구나 무료로 사전 등록 후 온라인으로 참여할 수 있습니다.• 공식 사이트에서 누구나 무료 참여 등록 가능이번 Tech-Verse 2025에서는 메인 테마인 AI와 보안을 비롯해 12개 분야의 기술 이야기를 만나볼 수 있습니다. 총 127개 세션이 준비돼 있으며, 세션은 한국어, 영어, 일본어의 3개 언어로 실시간 통역이 제공됩니다.보다 자세한 정보는 아래 일정별 트랙과 타임테이블을 확인해 주세요.다음은 각 분야별 추천 세션입니다.• AI | AI와 함께 진화하는 개발 프로세스• Infrastructure | Central Dogma Control Plane으로 LY Corporation의 수천 개 서비스를 연결하기• Data Platform | AI로 데이터 분석가 일자리 뺏기 - 생성형 AI를 이용한 데이터 파이프라인 구축 및 데이터 분석 자동화• App | Demae-can의 대변혁: React Native에서 Flutter로의 과감한 이행 전략• Product Management | 데이터와 현장 조사로 밝혀낸 "LINE Talk" 사용자 인사이트추천 세션 외에도 흥미로운 세션이 가득하니 Tech-Verse 2025에서 LY Corporation 그룹사의 기술 비전과 도전 사례를 꼭 만나 보세요!
6/24/2025
logo
테크 컨퍼런스 Tech-Verse 2025를 개최합니다
LY Corporation에서 오는 6월 30일과 7월 1일 양일간 테크 컨퍼런스 Tech-Verse 2025를 개최합니다.Tech-Verse는 전세계 LY Corporation 그룹사 소속 엔지니어와 디자이너, 프로덕트 매니저의 발표 세션으로 구성되며, 공식 사이트의 온라인 참가 등록에서 누구나 무료로 사전 등록 후 온라인으로 참여할 수 있습니다.• 공식 사이트에서 누구나 무료 참여 등록 가능이번 Tech-Verse 2025에서는 메인 테마인 AI와 보안을 비롯해 12개 분야의 기술 이야기를 만나볼 수 있습니다. 총 127개 세션이 준비돼 있으며, 세션은 한국어, 영어, 일본어의 3개 언어로 실시간 통역이 제공됩니다.보다 자세한 정보는 아래 일정별 트랙과 타임테이블을 확인해 주세요.다음은 각 분야별 추천 세션입니다.• AI | AI와 함께 진화하는 개발 프로세스• Infrastructure | Central Dogma Control Plane으로 LY Corporation의 수천 개 서비스를 연결하기• Data Platform | AI로 데이터 분석가 일자리 뺏기 - 생성형 AI를 이용한 데이터 파이프라인 구축 및 데이터 분석 자동화• App | Demae-can의 대변혁: React Native에서 Flutter로의 과감한 이행 전략• Product Management | 데이터와 현장 조사로 밝혀낸 "LINE Talk" 사용자 인사이트추천 세션 외에도 흥미로운 세션이 가득하니 Tech-Verse 2025에서 LY Corporation 그룹사의 기술 비전과 도전 사례를 꼭 만나 보세요!
2025.06.24
emoji
좋아요
emoji
별로에요
logo
[백서] VFM '제로', 소량 데이터로 SOTA 성능 달성! 기술 노하우 공개
슈퍼브에이아이의 혁신적인 비전 파운데이션 모델 '제로'의 기술 노하우를 담은 백서. 0.9M 데이터로 SOTA 성능을 달성한 제로의 개발 배경, 핵심 기술, 모델 구조를 공개합니다. 시간과 비용 절감 효과를 백서에서 바로 확인하세요.복잡한 비전 AI 모델 개발, 이제 끝! '제로'로 즉시 프로덕션에 적용하세요.AI는 다양한 산업 분야에 혁신을 가져오고 있습니다. 특히 컴퓨터 비전 분야에서는 객체 감지(Object Detection), 이미지 캡셔닝(Image Captioning) 등 복잡한 시각 정보를 이해하고 처리하는 기술의 중요성이 더욱 커지고 있는데요. 비전 AI 모델을 개발하고 실제 산업 현장에 적용하는 과정은 여전히 많은 시간과 비용, 그리고 전문성을 요구하는 어려운 과제입니다.슈퍼브 AI는 이러한 어려움을 해결하고, 기업들이 AI를 통해 비즈니스 가치를 신속하게 창출할 수 있도록 돕기 위해 국내 최초 산업 특화 비전 파운데이션 모델 '제로(ZERO)'를 개발했습니다. '제로'는 기존의 복잡한 모델 개발 패러다임을 혁신적으로 변화시키며, 효율적이고 유연한 AI 도입을 가능하게 합니다.'제로(ZERO)'가 제시하는 비전 AI 개발의 혁신적인 변화슈퍼브에이아이의 '제로'는 0.9M의 데이터셋만으로 Visual-G AP 35.2의 우수한 성능을 달성하며, 대규모 데이터셋(20M~100M)을 사용하는 SOTA 모델과 비교해 압도적인 데이터 효율성을 입증했습니다. 이는 곧 시간과 비용을 획기적으로 절감하면서도 최고 수준의 AI 성능을 구현할 수 있음을 의미합니다.기술 백서에서 다루는 주요 내용데이터 중심 AI 철학을 담아 개발한 '제로'의 기술 노하우를 담은 기술 백서를 공개합니다.• 비전 파운데이션 모델(VFM)의 정의 및 특징: 파운데이션 모델의 정의와 그 중요성, 그리고 비전 파운데이션 모델의 특징에 대해 상세히 설명합니다.• 관련 연구 동향: 최근 객체 감지 기술의 발전 동향과 오픈셋 감지 모델의 필요성, 그리고 CLIP, GLIP, Grounding DINO등 주요 연구들을 소개합니다.• VFM '제로' 소개: '제로'의 개발 배경, 핵심 기술, 그리고 '제로' 모델 구조에 대해 자세히 설명합니다.• 성능 비교 및 기술 사양: '제로'의 모델 성능 및 기술 사양을 상세히 공개하고, 다른 선행 연구 모델들과의 비교를 통해 '제로'의 우수성을 객관적인 지표로 제시합니다.• 향후 계획: 포인트/스케치 기반 프롬프팅 확장 계획과 데이터 중심 접근법을 통한 자동화 파이프라인 구축 등 '제로'의 지속적인 성능 향상을 위한 슈퍼브에이아이의 비전을 제시합니다.'제로(ZERO)' 기술 백서 다운로드지금 바로 슈퍼브 기술 백서를 다운로드하여 '제로'가 어떻게 귀사의 AI 도입을 가속화하고 비즈니스 성장을 견인할 수 있는지 확인해보세요.아래 양식을 작성하시면 백서를 바로 보실 수 있습니다.
6/24/2025
logo
[백서] VFM '제로', 소량 데이터로 SOTA 성능 달성! 기술 노하우 공개
슈퍼브에이아이의 혁신적인 비전 파운데이션 모델 '제로'의 기술 노하우를 담은 백서. 0.9M 데이터로 SOTA 성능을 달성한 제로의 개발 배경, 핵심 기술, 모델 구조를 공개합니다. 시간과 비용 절감 효과를 백서에서 바로 확인하세요.복잡한 비전 AI 모델 개발, 이제 끝! '제로'로 즉시 프로덕션에 적용하세요.AI는 다양한 산업 분야에 혁신을 가져오고 있습니다. 특히 컴퓨터 비전 분야에서는 객체 감지(Object Detection), 이미지 캡셔닝(Image Captioning) 등 복잡한 시각 정보를 이해하고 처리하는 기술의 중요성이 더욱 커지고 있는데요. 비전 AI 모델을 개발하고 실제 산업 현장에 적용하는 과정은 여전히 많은 시간과 비용, 그리고 전문성을 요구하는 어려운 과제입니다.슈퍼브 AI는 이러한 어려움을 해결하고, 기업들이 AI를 통해 비즈니스 가치를 신속하게 창출할 수 있도록 돕기 위해 국내 최초 산업 특화 비전 파운데이션 모델 '제로(ZERO)'를 개발했습니다. '제로'는 기존의 복잡한 모델 개발 패러다임을 혁신적으로 변화시키며, 효율적이고 유연한 AI 도입을 가능하게 합니다.'제로(ZERO)'가 제시하는 비전 AI 개발의 혁신적인 변화슈퍼브에이아이의 '제로'는 0.9M의 데이터셋만으로 Visual-G AP 35.2의 우수한 성능을 달성하며, 대규모 데이터셋(20M~100M)을 사용하는 SOTA 모델과 비교해 압도적인 데이터 효율성을 입증했습니다. 이는 곧 시간과 비용을 획기적으로 절감하면서도 최고 수준의 AI 성능을 구현할 수 있음을 의미합니다.기술 백서에서 다루는 주요 내용데이터 중심 AI 철학을 담아 개발한 '제로'의 기술 노하우를 담은 기술 백서를 공개합니다.• 비전 파운데이션 모델(VFM)의 정의 및 특징: 파운데이션 모델의 정의와 그 중요성, 그리고 비전 파운데이션 모델의 특징에 대해 상세히 설명합니다.• 관련 연구 동향: 최근 객체 감지 기술의 발전 동향과 오픈셋 감지 모델의 필요성, 그리고 CLIP, GLIP, Grounding DINO등 주요 연구들을 소개합니다.• VFM '제로' 소개: '제로'의 개발 배경, 핵심 기술, 그리고 '제로' 모델 구조에 대해 자세히 설명합니다.• 성능 비교 및 기술 사양: '제로'의 모델 성능 및 기술 사양을 상세히 공개하고, 다른 선행 연구 모델들과의 비교를 통해 '제로'의 우수성을 객관적인 지표로 제시합니다.• 향후 계획: 포인트/스케치 기반 프롬프팅 확장 계획과 데이터 중심 접근법을 통한 자동화 파이프라인 구축 등 '제로'의 지속적인 성능 향상을 위한 슈퍼브에이아이의 비전을 제시합니다.'제로(ZERO)' 기술 백서 다운로드지금 바로 슈퍼브 기술 백서를 다운로드하여 '제로'가 어떻게 귀사의 AI 도입을 가속화하고 비즈니스 성장을 견인할 수 있는지 확인해보세요.아래 양식을 작성하시면 백서를 바로 보실 수 있습니다.
2025.06.24
emoji
좋아요
emoji
별로에요
logo
어려운 용어가 있으신가요? ‘금.용.사.’가 알려드립니다!
ellie.sys 사용자에게 친숙한 서비스를 제공하기 위한 고민과 열정을 가득 느낄 수 있었습니다. 보험과 비슷한 환경으로 고민이 있는 서비스가 있다면 유용한 인사이트를 얻어 가실 수 있을 거예요!안녕하세요, 저희는 금.용.사(금융용어사전) 서비스를 만든 아 팀이름 안정했따 팀입니다. 카카오페이에서는 최근 AWS와 함께 AI를 활용하는 해커톤, 카페톤을 진행했는데요. 저희는 어려운 금융용어를 사용자가 이해하기 쉽게 설명해 준다는 콘셉트를 가지고 서비스를 만들었습니다. 팀원 구성이 보험(인슈어런스클랜) 크루들이다 보니, 저희가 처음 보험이라는 도메인을 접했을 때 느꼈던 용어의 어려움이 사용자들에게도 분명 해석이 필요할 것이라고 생각했습니다.아이디어 선정 과정저희는 아래 내용을 중심으로 아이디어를 선정했습니다.• 저희가 잘 아는 보험 도메인• 사용자가 저희 서비스를 이용하는데 도움이 되는 아이디어저희 팀 모두 인슈어런스 클랜의 크루들이다 보니, 아무래도 보험이라는 도메인에 대해 많이 익숙합니다. 그만큼 사용자들이 어떤 어려움을 겪고 있는지, 또는 어떤 부분이 허들이 되는지 기존에도 많이 고민하고 있었는데요. AI, 그리고 카페톤이라는 평소와는 다른 제약조건 하에 저희가 기존에 해결하고 싶었던 문제들을 어떻게 풀 수 있는지 고려하여 아이디어를 선정했습니다.또, 사용자의 실제 어려움을 해소해 줄 수 있는 아이디어를 원했습니다. 저희는 복잡한 금융을 쉽게 풀어 제공하는 서비스를 만들고 있습니다. AI를 활용한 서비스가 무궁무진하게 쏟아져 나오고 있는 상황에서, 저희는 AI 역시 기존과 같은 목적으로 사용하고자 하였고, 이에 따라 사용자가 경험할 수 있는 서비스 내 허들을 AI를 이용해 해소하고 싶었습니다.마지막으로, 실현 가능성을 고려하여 아이디어를 선정했습니다. 카페톤은 사전에 자료 및 기술 조사가 허용되었고, 실제 구현은 당일에 이루어져야 했습니다. 네 명의 팀원들 모두 AWS의 AI 서비스들을 처음 접하는 상황이었고, 실제로 구현 가능한 시간은 한정되어 있었기 때문에, 이를 감안하여 아이디어를 선정했습니다.이를 바탕으로 저희가 선정한 아이디어는 ‘금융 용어 사전’, 줄여서 ‘금.용.사.‘입니다. 금융 서비스를 이용할 때, 어려운 용어 때문에 이해하지 못하고 넘어가는 사용자들이 많은 점에 착안하여, 이러한 허들을 AI를 활용하여 해소하고자 하였습니다.뿐만 아니라 용어와 관련된 금융 상품 조회 등, 사용자가 필요할 수 있는 정보를 AI가 선정하여 함께 제공하도록 하였습니다. 저희가 보험 도메인에 익숙한 만큼 실제 구현은 보험을 중심으로 진행했지만, 대출, 카드, 투자 등 다른 금융 도메인에도 접목시킬 수 있는 아이디어입니다.고생 끝에 완성한 결과물입니다. 우선 영상부터 보시죠!사용자가 카카오톡 알림톡 등을 통해 진입하는 과정을 가정했습니다.우선 화면에서 사용자가 클릭을 하면 용어를 해석해 준다는 것을 인지시키기 위해, 토글 버튼을 활용했습니다. 토글을 클릭하면 화면에 있는 용어들 중 사용자가 어려워할 만한 용어들을 AI가 인식해서 설명이 가능한
awsdynamodb
6/24/2025
logo
어려운 용어가 있으신가요? ‘금.용.사.’가 알려드립니다!
ellie.sys 사용자에게 친숙한 서비스를 제공하기 위한 고민과 열정을 가득 느낄 수 있었습니다. 보험과 비슷한 환경으로 고민이 있는 서비스가 있다면 유용한 인사이트를 얻어 가실 수 있을 거예요!안녕하세요, 저희는 금.용.사(금융용어사전) 서비스를 만든 아 팀이름 안정했따 팀입니다. 카카오페이에서는 최근 AWS와 함께 AI를 활용하는 해커톤, 카페톤을 진행했는데요. 저희는 어려운 금융용어를 사용자가 이해하기 쉽게 설명해 준다는 콘셉트를 가지고 서비스를 만들었습니다. 팀원 구성이 보험(인슈어런스클랜) 크루들이다 보니, 저희가 처음 보험이라는 도메인을 접했을 때 느꼈던 용어의 어려움이 사용자들에게도 분명 해석이 필요할 것이라고 생각했습니다.아이디어 선정 과정저희는 아래 내용을 중심으로 아이디어를 선정했습니다.• 저희가 잘 아는 보험 도메인• 사용자가 저희 서비스를 이용하는데 도움이 되는 아이디어저희 팀 모두 인슈어런스 클랜의 크루들이다 보니, 아무래도 보험이라는 도메인에 대해 많이 익숙합니다. 그만큼 사용자들이 어떤 어려움을 겪고 있는지, 또는 어떤 부분이 허들이 되는지 기존에도 많이 고민하고 있었는데요. AI, 그리고 카페톤이라는 평소와는 다른 제약조건 하에 저희가 기존에 해결하고 싶었던 문제들을 어떻게 풀 수 있는지 고려하여 아이디어를 선정했습니다.또, 사용자의 실제 어려움을 해소해 줄 수 있는 아이디어를 원했습니다. 저희는 복잡한 금융을 쉽게 풀어 제공하는 서비스를 만들고 있습니다. AI를 활용한 서비스가 무궁무진하게 쏟아져 나오고 있는 상황에서, 저희는 AI 역시 기존과 같은 목적으로 사용하고자 하였고, 이에 따라 사용자가 경험할 수 있는 서비스 내 허들을 AI를 이용해 해소하고 싶었습니다.마지막으로, 실현 가능성을 고려하여 아이디어를 선정했습니다. 카페톤은 사전에 자료 및 기술 조사가 허용되었고, 실제 구현은 당일에 이루어져야 했습니다. 네 명의 팀원들 모두 AWS의 AI 서비스들을 처음 접하는 상황이었고, 실제로 구현 가능한 시간은 한정되어 있었기 때문에, 이를 감안하여 아이디어를 선정했습니다.이를 바탕으로 저희가 선정한 아이디어는 ‘금융 용어 사전’, 줄여서 ‘금.용.사.‘입니다. 금융 서비스를 이용할 때, 어려운 용어 때문에 이해하지 못하고 넘어가는 사용자들이 많은 점에 착안하여, 이러한 허들을 AI를 활용하여 해소하고자 하였습니다.뿐만 아니라 용어와 관련된 금융 상품 조회 등, 사용자가 필요할 수 있는 정보를 AI가 선정하여 함께 제공하도록 하였습니다. 저희가 보험 도메인에 익숙한 만큼 실제 구현은 보험을 중심으로 진행했지만, 대출, 카드, 투자 등 다른 금융 도메인에도 접목시킬 수 있는 아이디어입니다.고생 끝에 완성한 결과물입니다. 우선 영상부터 보시죠!사용자가 카카오톡 알림톡 등을 통해 진입하는 과정을 가정했습니다.우선 화면에서 사용자가 클릭을 하면 용어를 해석해 준다는 것을 인지시키기 위해, 토글 버튼을 활용했습니다. 토글을 클릭하면 화면에 있는 용어들 중 사용자가 어려워할 만한 용어들을 AI가 인식해서 설명이 가능한
2025.06.24
awsdynamodb
emoji
좋아요
emoji
별로에요
Copyright © 2025. Codenary All Rights Reserved.