과기정통부, 제네시스랩에서 AI 윤리·신뢰성 간담회 개최

과학기술정보통신부가 제네시스랩에서 AI 윤리와 신뢰성을 주제로 현장 간담회를 열었습니다. 박윤규 2차관 주재로 정책 추진 상황 공유와 네이버·LG·제네시스랩의 적용 사례 발표가 이어졌습니다.

Share
과기정통부, 제네시스랩에서 AI 윤리·신뢰성 간담회 개최

원문: 아시아경제 — 과기정통부, AI 윤리·신뢰성 확보 위한 간담회 개최

과학기술정보통신부가 AI 윤리와 신뢰성을 주제로 한 현장 간담회를 제네시스랩에서 열었습니다. 박윤규 2차관이 주재한 자리로, 국무회의 안건 ‘새로운 디지털 질서 정립 방안’의 후속 조치이자 챗GPT를 비롯한 초거대·생성형 AI 확산에 대응하기 위한 자리였습니다.

간담회에서는 과기정통부 최동원 과장이 AI 윤리 기준 제정, 자율점검표와 개발안내서 마련, 윤리정책포럼 운영 등 정책 추진 상황과 향후 계획을 발표했습니다. KISDI 문정욱 센터장은 자율점검표의 실제 적용 사례를, TTA 이강해 단장은 개발자 참고용 기술 요구사항을 담은 개발안내서 내용과 공공·의료·자율주행 분야의 활용 현황을 공유했습니다.

기업 사례 발표에서는 네이버 송대섭 이사가 ‘AI 윤리준칙’을, LG AI연구원 김유철 부문장이 ‘LG AI 윤리원칙’을 설명했습니다. 제네시스랩 이영복 대표는 개발안내서를 실제 제품에 적용한 현황을 발표했습니다.

박윤규 차관은 기술 개발부터 활용까지 전 단계에서 AI 윤리와 신뢰성 확보가 기업의 생존과 직결된다는 점을 강조하며 마무리했습니다.

Read more

단일 LLM의 한계를 넘어서: Multi-Agent System은 왜 필요한가

단일 LLM의 한계를 넘어서: Multi-Agent System은 왜 필요한가

단일 LLM으로 복잡한 비즈니스 문제를 해결하는 접근은 현실에서 쉽게 한계에 부딪힌다. 이 글에서는 단일 프롬프트부터 멀티 에이전트 시스템에 이르기까지 AI 아키텍처의 발전 단계를 분석하고, 각 구조가 왜 실패하거나 부족했는지 그 이유를 짚는다. 그리고 그 흐름 속에서 도출되는 멀티 에이전트 스케일링 법칙이 B2B 플랫폼 설계에 어떤 시사점을 주는지 살펴본다.