생성형 인공지능(Generative AI) 요약
생성형 AI는 대규모 데이터 세트를 기반으로 학습한 딥러닝 모델을 사용하여 새로운 콘텐츠를 생성하는 일종의 인공지능 기술입니다. 새로운 데이터를 생성하는 데 사용되는 생성형 인공지능 모델은 차이점을 기반으로 데이터를 분류하는 데 사용되는 판별 AI 모델과는 반대되는 개념입니다. 오늘날 사람들은 생성형 AI 애플리케이션을 사용하여 문서, 사진, 코드 등을 만듭니다. 이는 AI의 운영 단계인 AI 추론 단계에서 이뤄지는 것으로, 이 단계에서 모델은 학습한 내용을 실제 상황에 적용할 수 있습니다. 생성형 AI의 일반적인 활용 사례로는 챗봇, 이미지 생성과 편집, 소프트웨어 코드 지원, 과학 연구 등이 있습니다.
사람들은 전문적인 환경에서 생성형 AI를 사용하여 독창적인 아이디어를 빠르게 시각화하고, 지루하고 시간이 많이 소요되는 작업을 효율적으로 처리하고 있습니다. 의학 연구나 제품 설계와 같은 새로운 영역에서는 생성형 AI가 전문가들의 작업 효율성을 높이는 데 도움이 되고 삶을 크게 개선할 수 있는 가능성을 보이고 있습니다. 반면 AI로 인한 새로운 리스크도 생기는 만큼 사용자가 이를 이해하고 완화하기 위해 노력해야 합니다.
최근 몇 년 사이 급부상한 생성형 인공지능 애플리케이션 중에는 OpenAI의 ChatGPT와 DALL-E, GitHub CoPilot, Microsoft의 Bing Chat, Google의 Gemini, Midjourney, Stable Diffusion, Adobe Firefly가 있습니다. Red Hat 서비스에는 Red Hat® Ansible® Lightspeed with IBM watsonx Code Assistant, Red Hat OpenShift Lightspeed 등 IT 전문가의 업무 효율성 제고를 돕는 생성형 AI 서비스가 포함됩니다. 다른 많은 조직에서도 일상적인 작업을 자동화하고 효율성을 개선하기 위해 자체 생성형 AI 시스템을 실험하고 있습니다.
생성형 AI의 작동 방식
ChatGPT와 놀랍도록 논리 정연한 대화를 경험했거나 사용자의 설명을 바탕으로 Midjourney가 진짜 같은 그림을 그려내는 것을 보았다면, 생성형 AI가 마법처럼 느껴질 수 있습니다. 이러한 마법의 비결은 무엇일까요?
AI 애플리케이션을 사용할 때 딥러닝 모델은 방대한 양의 학습 데이터에서 학습한 패턴을 재생성합니다. 그런 다음 인간이 구성한 매개 변수 내에서 지금까지 학습한 내용을 바탕으로 새로운 것을 만들어 냅니다.
딥러닝 모델은 학습 데이터의 복사본이 아니라 유사한 데이터 포인트가 가깝게 배열된 인코딩된 버전을 저장합니다. 그런 다음 이 표현은 디코딩되어 유사한 특징을 가진 새로운 원본 데이터를 구성합니다.
사용자 정의 생성형 AI 애플리케이션을 빌드하려면 모델뿐만 아니라 인간이 감독하는 미세 조정 또는 활용 사례별 데이터 레이어와 같은 조정이 필요합니다.
오늘날 널리 사용되는 생성형 AI 애플리케이션은 대부분 사용자 프롬프트에 응답합니다. 원하는 것을 자연어로 설명하면 생성형 AI 애플리케이션이 마치 마법처럼 요청한 것을 출력합니다.
Red Hat 리소스
생성형 AI의 활용 사례로는 무엇이 있나요?
글쓰기와 이미지 영역에서 생성형 AI의 획기적인 발전은 뉴스 헤드라인을 장식하고 사람들의 상상력을 사로잡았습니다. 다음은 빠르게 발전하는 생성형 AI 기술의 몇 가지 초기 활용 사례입니다.
글쓰기. ChatGPT가 헤드라인을 장식하고 스스로 글을 쓰기 시작하기도 전에 생성형 AI 시스템은 이미 인간의 글쓰기를 모방하는 솜씨가 훌륭했습니다. 언어 번역 툴은 생성형 AI 모델의 첫 활용 사례들 중 하나였습니다. 오늘날의 생성형 AI 툴은 실질적으로 모든 주제에 대한 고품질 콘텐츠 생성 프롬프트에 응답할 수 있습니다. 이러한 툴은 다양한 길이와 문체로 글을 쓸 수도 있습니다.
이미지 생성. 생성형 AI 이미지 툴은 프롬프트에 대한 응답으로 고품질 사진들을 합성하여 무수히 많은 피사체와 스타일을 생성할 수 있습니다. Adobe Photoshop의 Generative Fill과 같은 일부 AI 툴은 기존 작품에 새로운 요소를 추가할 수 있습니다.
음성 및 음악 생성. 작성된 텍스트와 사람 목소리의 샘플 오디오를 사용하여 AI 보컬 툴은 실제 사람의 소리를 모방하는 내레이션이나 노래를 만들 수 있습니다. 프롬프트나 샘플에서 인공지능으로 음악을 창작하는 다른 툴도 있습니다.
동영상 생성. 새로운 서비스들이 모션 그래픽을 만들기 위해 다양한 생성형 AI 기술을 실험하고 있습니다. 예를 들어, 일부 서비스는 오디오를 스틸 이미지와 매칭하고 피사체의 입과 얼굴 표정을 말하는 것처럼 보이게 만들 수 있습니다.
코드 생성 및 완성. 일부 생성형 AI 툴은 소프트웨어 개발자를 지원하기 위해 요청 시 작성된 프롬프트를 가져와 컴퓨터 코드를 출력할 수 있습니다.
데이터 증강. 생성형 AI는 실제 데이터를 사용하는 것이 불가능하거나 바람직하지 않을 때 대량의 합성 데이터를 생성할 수 있습니다. 예를 들어, 개인 식별 정보를 포함하지 않고 보건 의료 데이터를 이해하도록 모델을 훈련하려는 경우 합성 데이터가 유용할 수 있습니다. 또한 학습이나 테스트를 목적으로 소규모이거나 불완전한 데이터 세트를 대규모의 합성 데이터 세트로 확장할 때도 합성 데이터를 사용할 수 있습니다.
딥러닝이란?
생성형 AI의 기반이 되는 딥러닝은 대량의 데이터를 분석하고 해석하기 위한 머신 러닝 기술입니다. 딥 뉴럴 러닝 또는 딥 뉴럴 네트워킹이라고도 하는 이 프로세스는 컴퓨터가 인간이 지식을 얻는 방식을 모방하여 관찰을 통해 학습하도록 가르칩니다. 딥러닝은 인간 언어를 컴퓨터에 이해시키는 기술, 즉 자연어 처리(NLP)에 있어 중요한 개념입니다.
딥러닝을 입력 레이어에서 시작하여 출력 레이어로 끝나는 흐름도의 한 유형으로 생각하면 도움이 될 수 있습니다. 이 두 레이어 사이에는 다양한 수준의 정보를 처리하고 새로운 데이터를 지속적으로 수신할 때 동작을 조정하는 '숨겨진 레이어'가 있습니다. 딥러닝 모델에는 수백 개의 숨겨진 레이어가 있을 수 있으며, 각 레이어는 데이터세트 내의 관계와 패턴을 발견하는 데 관여합니다.
여러 노드로 구성된 입력 레이어에서부터 시작하여 데이터는 모델에 도입되고 적절히 분류된 후에 다음 레이어로 이동합니다. 데이터가 각 레이어를 통과하는 경로는 각 노드에 설정된 계산을 기반으로 합니다. 결국 데이터는 각 레이어를 통과하면서 관측치를 수집하여 그 과정에서 궁극적으로 데이터의 출력 또는 최종 분석을 생성합니다.
딥러닝의 발전 속도를 가속화한 기술이 그래픽 처리 장치(GPU)입니다. GPU는 원래 비디오 게임 그래픽의 렌더링을 가속화하기 위해 설계되었습니다. 그러나 병렬식 계산을 수행하는 효율적인 방법으로서 GPU는 딥러닝 워크로드에 매우 적합한 기술로 입증되었습니다.
딥러닝 모델의 크기와 속도의 획기적 발전은 현재의 획기적인 생성형 AI 애플리케이션의 물결로 직접 이어졌습니다.
신경망이란?
신경망은 우리 뇌의 연결과 같은 생물학적 신경계를 모방한 정보 처리 방식입니다. AI가 겉보기에는 관련성이 없는 정보 세트들 간에 연결 관계를 생성할 수 있는 것은 바로 이 신경망이 있기 때문입니다. 신경망의 개념은 딥러닝과 밀접한 관련이 있습니다.
딥러닝 모델은 신경망 개념을 사용하여 어떻게 데이터 포인트들을 연결할까요? 인간의 뇌가 작동하는 방법부터 살펴보겠습니다. 인간의 뇌는 상호 연결된 많은 뉴런을 포함하고 있으며 이러한 뉴런은 뇌가 수신하는 데이터를 처리할 때 정보 전달자 역할을 합니다. 이 뉴런들은 서로 통신하고 뇌의 다른 영역 간에 정보를 전달하기 위해 전기 자극과 화학 신호를 사용합니다.
인공 신경망(ANN)은 이러한 생물학적 현상을 기반으로 하지만, 노드라고 하는 소프트웨어 모듈로 만들어진 인공 뉴런에 의해 형성됩니다. 이러한 노드는 (뇌의 화학 신호 대신) 수학적 계산을 사용하여 정보를 전달하고 전송합니다. 이 시뮬레이션 신경망(SNN)은 데이터 포인트를 클러스터링하고 예측하여 데이터를 처리합니다.
다양한 신경망 기술은 여러 종류의 데이터에 적합합니다. 순환 신경망(RNN)은 언어를 처리하기 위한 방법으로 단어를 순차적으로 학습하는 것과 같이 순차 데이터를 사용하는 모델입니다.
RNN에 착안한 트랜스포머(transformer)는 언어를 더 빠르게 처리할 수 있는 특수한 종류의 신경망 아키텍처입니다. 트랜스포머는 문장에서 단어들의 관계를 학습합니다. 이는 각 단어를 순차적으로 수집하는 RNN보다 더 효율적인 프로세스입니다.
대규모 언어 모델(LLM)은 트랜스포머를 일반화된 대규모 데이터 세트에 적용하여 학습한 딥러닝 모델입니다. LLM은 널리 사용되는 여러 AI 채팅 툴과 텍스트 툴을 지원합니다.
또 다른 딥러닝 기술인 확산 모델은 이미지 생성에 적합하다는 것이 입증되었습니다. 확산 모델은 자연 이미지를 흐릿한 시각적 노이즈로 전환하는 프로세스를 학습합니다. 그런 다음 생성형 이미지 툴이 프로세스를 이어받아 반전시켜 임의의 노이즈 패턴부터 시작해 실제 사진과 유사해질 때까지 조정합니다.
딥러닝 모델은 매개 변수로 표현됩니다. 대출 신청서에 있는 10개의 입력값을 토대로 훈련된 간단한 신용 예측 모델의 경우 매개 변수가 10개가 될 것입니다. 이와 달리 LLM의 매개 변수는 수십억 개에 달할 수 있습니다. ChatGPT의 기반 모델 중 하나인 OpenAI의 GPT-4(Generative Pre-trained Transformer 4)는 1조 개의 매개 변수를 가지고 있다고 보고된 바 있습니다.
파운데이션 모델이란?
기반 모델은 대량의 일반 데이터를 기반으로 훈련된 딥러닝 모델입니다. 훈련이 완료된 후에는 모델을 개선해 전문화된 활용 사례를 만들 수 있습니다. 이름에서 알 수 있듯이, 이러한 모델은 여러 다양한 애플리케이션의 기반을 형성할 수 있습니다.
오늘날 새로운 기반 모델을 만드는 것은 규모가 상당한 프로젝트입니다. 일반적으로 인터넷, 디지털 도서관, 학술 자료 데이터베이스, 스톡 이미지 컬렉션 또는 기타 대규모 데이터 세트에서 수집되는 막대한 양의 학습 데이터가 필요한 프로세스이기 때문입니다. 이 정도의 데이터를 기반으로 모델을 훈련하려면 GPU의 클라우드를 구축하거나 임대하는 등 막대한 인프라가 필요합니다. 현재까지 최대 규모의 기반 모델의 경우 구축 비용이 수억 달러에 이른다고 알려져 있습니다.
처음부터 새로 기반 모델을 훈련하는 데는 많은 노력이 필요하기 때문에 제3사가 훈련한 모델에 사용자 정의를 적용하는 것이 일반적입니다. 기반 모델을 사용자 정의하는 기술에는 여러 가지가 있습니다. 여기에는 미세 조정(fine-tuning), 프롬프트 튜닝(prompt-tuning), 그리고 고객별 또는 도메인별 데이터 추가가 포함될 수 있습니다. 예를 들어 IBM의 Granite 제품군 파운데이션 모델은 엄선된 데이터를 기반으로 학습한 다음, 학습에 사용되는 데이터에 대한 투명성을 제공합니다.
미세 조정(fine-tuning)의 정의
미세 조정은 사전 학습된 모델이 고유의 태스크를 효과적으로 수행할 수 있도록 맞춤형 데이터세트를 사용해 추가로 학습하는 프로세스입니다. 이 추가 학습 데이터를 통해 모델의 매개 변수를 수정하고 원래 모델을 대체하는 새로운 버전을 만들 수 있습니다.
일반적으로 초기 학습에 비해 미세 조정에 필요한 데이터와 시간이 훨씬 적습니다. 하지만 기존 미세 조정 방식은 컴퓨팅 집약적이라는 단점이 있습니다.
매개 변수 효율적인 미세 조정(PEFT)은 리소스를 절약하기 위해 LLM 내에서 일부 매개 변수만 조정하는 기술입니다. 기존 미세 조정 기술이 진화하여 PEFT가 된 것입니다.
낮은 순위 적응(Low-Rank Adaptation, LoRA)와 양자화된 낮은 순위 적응(Quantized Low-Rank Adaptation, QLoRA) 은 둘 다 AI 학습에 사용되는 PEFT 기법입니다. LoRA와 QLoRA는 둘 다 LLM을 더욱 효율적으로 미세 조정하는 데 도움이 되지만, 원하는 결과에 도달하기 위해 모델을 조작하고 스토리지를 사용하는 방식은 서로 다릅니다.
검색 증강 생성이란?
검색 증강 생성(RAG, Retrieval-Augmented Generation)은 대규모 언어 모델(LLM)을 외부 리소스에 연결하여 생성형 AI 애플리케이션으로부터 더 나은 답변을 얻는 방법입니다.
RAG 아키텍처를 LLM 기반의 질문-답변 시스템(예: 챗봇)에 구현하여 LLM과 선택한 추가 지식 소스 간의 커뮤니케이션 라인을 제공합니다. 이로 인해 LLM은 상호 참조하고 외부 지식을 보완할 수 있으므로 사용자 쿼리에 더 신뢰할 수 있고 정확한 출력을 제공합니다.
생성형 AI의 리스크는 무엇이 있을까요?
단기간에 큰 발전을 이룬 생성형 AI 기술은 긍정적, 부정적으로 모두 큰 반향을 일으켰습니다. 생성형 AI 기술의 장단점은 여전히 밝혀지는 중입니다. 지금부터는 생성형 AI에 관한 주요 우려 사항을 간단하게 살펴보겠습니다.
위험 초래. 악의적인 사용자가 소셜 미디어의 대규모 허위 정보 캠페인 또는 실제 인물을 겨냥한 무단 딥페이크 이미지와 같이 악의적인 목적에 생성형 AI 툴을 사용하는 경우처럼 즉각적이고 분명한 위험이 존재합니다.
유해한 사회적 편향 강화. 생성형 AI 툴은 위험한 고정 관념과 혐오 발언 등 훈련 데이터에 존재하는 인간의 편향을 반복하는 것으로 나타났습니다.
잘못된 정보 공급. 생성형 AI 툴은 명백히 잘못된 가짜 정보와 장면을 생산할 수 있으며, 이를 “환각”이라고도 합니다. 생성된 콘텐츠의 오류 중에는 채팅 질문에 대한 무의미한 답변이나 손가락이 너무 많이 달린 사람 손 이미지처럼 무해한 것들도 있습니다. 그렇지만 섭식 장애에 관한 질문에 위험한 조언을 제공한 챗봇처럼 AI의 실수가 심각한 문제를 초래한 사례가 있습니다.
보안 리스크와 법적 위험. 생성형 AI 시스템은 보안 리스크를 초래할 수 있습니다. 보안 설계가 적용되지 않은 애플리케이션에 사용자가 민감한 정보를 입력하는 경우가 그에 해당합니다. 생성형 AI의 응답은 저작권 보호 콘텐츠를 재생산하거나 실제 사람의 음성이나 신원을 동의 없이 도용하여 법적 위험을 초래할 수 있습니다. 또한 일부 생성형 AI 툴은 사용이 제한적일 수 있습니다.
Red Hat의 지원 방식
Red Hat® AI는 고객이 이미 신뢰하는 솔루션을 토대로 구축된 Red Hat의 AI 제품 포트폴리오입니다. 이 기반을 통해 Red Hat 제품의 안정성, 유연성, 확장성이 유지됩니다.
Red Hat AI가 조직에 제공하는 이점은 다음과 같습니다.
- AI를 신속하게 도입하고 활용하여 빠르게 혁신
- AI 솔루션 제공의 복잡성 해소
- 어디서나 배포.
오픈소스 솔루션을 자유롭게 활용하는 기반
Red Hat AI 솔루션은 생성형 AI 기능과 예측 AI 기능을 모두 지원할 수 있습니다. 자체 모델을 활용(Bring Your Own Model)할 수 있는 유연성을 바탕으로 비즈니스 활용 사례별 학습과 미세 조정 파운데이션 모델을 지원합니다.
엔터프라이즈 애플리케이션을 위한 Granite LLM 제품군을 개발, 테스트, 실행할 수 있는 파운데이션 모델 플랫폼인 Red Hat® Enterprise Linux® AI로 시작하면 좋습니다. AI 플랫폼은 개발자에게 LLM과 AI 툴링을 갖춘 단일 서버 환경에 대한 빠른 액세스를 제공합니다. 또한 모델을 조정하고 생성 AI 애플리케이션을 빌드하는 데 필요한 모든 것을 제공합니다.
아울러 Red Hat의 AI 파트너 에코시스템이 확장되고 있습니다. 다양한 기술 파트너들이 Red Hat과 협력하여 Red Hat AI와의 상호 운용성을 인증하고 있습니다. 오픈소스 솔루션을 자유롭게 선택하여 활용하세요.
엔터프라이즈를 위한 AI 시작하기: 입문자용 가이드
Red Hat OpenShift AI와 Red Hat Enterprise Linux AI가 어떻게 여러분의 AI 도입 여정을 가속화할 수 있는지 확인해 보세요.