본문 바로가기

분류 전체보기1010

[디자인] 색상이 주는 지각적 효과와 감정적 효과의 종류와 예시 디자인에서 색상에 따라 주는 지각적 효과와 감정적 효과의 종류와 예시에 대해서 알아봅니다. [ Contents ]  1. 지각적 효과 (Perceptual Effect)사용자가 무엇을 보고, 어떻게 인식하는지에 관련된 효과  사용자가 시각 정보를 어떻게 처리하는지에 대한 방식이나 효과를 설명합니다. 흔히 크고 색이 강하면 중요하다는 느낌을 받고, 작고 색이 연하면 중요하지 않다는 느낌을 받는 것처럼 사용자가 지각하는 효과를 다룹니다.  1) 동화현상인접 색에 가까운 것으로 느끼는 현상   주변 색깔에 동화되어, 가까운 색으로 느끼는 현상입니다.  2) 잔상효과자극 생긴 후 상이 그대로 남아 있는 현상  오랫동안 응시하다가 다른 곳을 보면, 원래 보던 것에 잔상이 남는 현상입니다. 예전에 착시효과가 한창 .. 2025. 4. 5.
[디자인] RGB와 CMYK 차이, 감산혼합 인쇄용 색상 조합 빛의 3원색인 RGB와 달리, 실제 인쇄할 때에는 CMYK라는 색상 조합을 사용합니다. 이 글에서는 CMYK를 사용하는 이유와 그 색상 조합에 대해서 알아봅니다. [ Contents ]  1. RGB와 CMYK 모니터 화면은 RGB 3종류의 LED 조명에 따라 색깔이 결정됩니다. 빛의 3원색을 그대로 따르죠. 하지만 A4용지에 인쇄될 때는 다릅니다. 물감을 덧칠하면 점점 색이 어두워지는 것처럼, 인쇄도 감산혼합 방식을 따릅니다. 프린터 잉크는 CMYK, 4가지 색으로 이루어져 있으며 이는 아래에서 알아보겠습니다.  2. CMYK 색상조합C: CyanM: MagentaY: YellowK: (Key) Black  프린터에 들어가는 잉크 조합입니다. 특별히 많이 쓰이는 검정은 Blue와 헷갈리지 않기 위해서 .. 2025. 4. 5.
[디자인] 게슈탈트 법칙 개념 및 원리와 패턴: 근접, 유사, 연속, 폐쇄 디자인의 기본 원리로 자주 불리우는 게슈탈트 법칙의 개념과 주요 패턴을 알아봅니다. [ Contents ]  1. 게슈탈트 법칙(Gestalt Laws)인간이 시각적인 정보를 인지하고 해석하는 방식에 대한 심리학적 원리  게슈탈트 법칙은 20세기 초 독일 심리학자들이 제안한 법칙으로, 전체적인 구조나 패턴을 먼저 인식하려는 경향을 갖습니다. 인간이 시각적인 정보를 인지하고 해석하는 방식에 대한 심리학적인 원리에 따라, 아래와 같은 대표적인 법칙들을 내세웁니다.  2. 대표적인 게슈탈트 법칙1) 근접의 법칙(Law of Proximity)서로 가까이 있는 요소들은 하나의 그룹으로 인식  인간은 자연스레 가까운 요소끼리 그룹지어 보려는 경향이 있습니다. 예를 들어 메뉴와 아이콘은 하나의 덩어리로 생각하며, .. 2025. 4. 5.
[AI/DL] 부스팅(Boosting) 앙상블 기법의 개념과 절차, 특징 알아보기 앙상블 기법 중 하나인 부스팅(Boosting)의 개념과 학습 절차, 특징을 알아봅니다. [ Contents ]  1. 부스팅(Boosting) 예측력이 약한 모델을 순차적으로 결합하여 학습시키면서, 점차 보완하여 예측력이 강한 모델을 만드는 기법  부스팅은 순차적으로 여러 모델을 거쳐 학습해서, 점차 보완된 모델을 얻는 기법입니다. 모델1의 학습데이터 평가 및 가중치를 조정하고, 이를 모델 2가 받아서 또 학습하는 식입니다. 이렇게 순차적으로 대물림받으며 학습을 진행하며, 잘못 학습된 가중치를 바로 잡으면서 정확도를 높여 갑니다. 병렬적으로 여러 분류기를 학습시킨 후, 그 분류기의 값을 취합하는 배깅과는 약간 상반된 앙상블 기법입니다. 2025.04.04 - [AI (Artificial Intellig.. 2025. 4. 4.
[AI/DL] 배깅(Bagging) 앙상블 기법의 개념 및 절차, 특징 알아보기 앙상블 기법은 여러 개의 예측 모델을 조합해서 하나의 최종 예측 모델을 만드는 방식으로, 배깅은 여러 예측 모델의 결과값을 평균 혹은 다수결의 원칙에 따라 최종 도출하는 방식입니다. 이러한 배깅 기법에 대해서 자세히 알아보겠습니다.  [ Contents ]  1. 배깅 (Bagging, Bootstrap Aggregating)부트스트랩 데이터를 기반으로 여러 모델을 학습시키고, 그 결과를 평균(또는 다수결)해서 예측하는 기법  배깅은 'Bootstrap(부트스트랩)'과 'Aggregating(합산)'의 합성어로, 부트스트랩 데이터로 여러 모델에 각각 학습시키고 그 결과를 합산하는 기법입니다. 다양한 데이터로 여러 모델에 학습하는 앙상블 기법 중 하나로, 대체로 성능이 준수한 편입니다. 다만 여러 모델에 .. 2025. 4. 4.
[AI/DL] 매개변수 최적화 기법 종류: 확률적 경사 하강법(SGD), 모멘텀, AdaGrad, Adam 매개변수 최적화 기법의 개념에 대해서 알아보고, 그 종류를 살펴봅니다. (확률적 경사 하강법(SGD), 모멘텀, Adam) [ Contents ]  1. 매개변수 최적화 (Parameter Optimization)딥러닝에서 모델의 성능을 높이기 위해 파라미터(가중치, 편향)를 조정하는 과정  딥러닝에서는 학습을 통해 각 뉴런의 가중치와 편향을 조정합니다. 대량의 데이터 학습은 '입력에 따라 올바른 출력값을 도출하기 위한 매개변수(가중치, 편향) 조정 과정'으로, 효율적인 학습을 위해서는 매개변수 최적화가 필요하죠. 아래에서는 이러한 매개변수 최적화 방법에 대해서 알아보겠습니다.  2. 매개변수 최적화 기법1) 확률적 경사 하강법(Stochastic Gradient Descent, SGD)무작위 샘플 또는.. 2025. 4. 4.
[AI/DL] 혼동 행렬 평가지표: 정확도, 정밀도, 재현율, 특이도, 조화 평균(F1 Score) 혼동 행렬(Confusion Matrix)는 분류모델의 평가 지표로 많이 쓰이며, 그 지표에는 정확도, 정밀도, 재현율, 특이도, 조화평균이 있습니다. 아래에서는 각 평가지표를 구하는 방법과 쓰이는 예시를 살펴보겠습니다. [ Contents ]  1. 혼동 행렬 (Confusion Matrix)TP (True Positive): 실제도 양성이고, 예측도 양성 → 정답TN (True Negative): 실제도 음성이고, 예측도 음성 → 정답FP (False Positive): 실제는 음성인데, 예측은 양성 → 오답 (오탐지)FN (False Negative): 실제는 양성인데, 예측은 음성 → 오답 (미탐지)  분류 모델에서 나올 수 있는 결과값을 행렬 형태로 정리한 걸 '혼동 행렬 (Confusion M.. 2025. 4. 3.
[AI/통계] 베이즈 정리의 개념과 예제 [feat. 조건부 확률, 전 확률의 정리] 확률과 통계 및 딥러닝에서 자주 사용하는 개념인 베이즈 정리에 대해서 알아봅니다. 베이즈 정리의 경우, 베이지안 뉴럴 네트워크까지 있을 정도로 학계에서는 중요하게 다뤄지는 개념입니다. 베이즈 정리를 살펴보기 위한 조건부 확률과 전 확률의 정리를 미리 알아보고, 베이즈 정리의 개념과 예제를 다뤄봅니다. [ Contents ]  1. 조건부 확률 (Conditional Probability)어떤 사건(B)이 일어난다는 조건에서 다른 사건(A)이 일어날 확률  조건부 확률의 분모와 분자를 잘 살펴보면 그 의미를 알 수 있습니다. 분모는 B가 일어날 확률으로, 그 중에서 A와 B 사건이 같이 일어날 확률이 분자로 들어갑니다. 즉, B 사건이 일어나는 확률 중에서, A 사건도 일어날 확률을 뜻합니다.    2. .. 2025. 4. 2.
[AI/ML] K-평균 클러스터링 알고리즘 개념 및 동작 방식 알아보기 [feat. 실루엣 계수] K-평균 클러스터링은 비지도학습의 대표적인 예시로, 간단하면서도 준수한 성능을 가졌습니다. 이러한 K-평균 클러스터링의 개념 및 동작 방식을 알아봅니다. [ Contents ]  1. K-평균 클러스터링중심점을 갱신하며 K개의 군집으로 분류하는 비지도 학습  K-평균 클러스터링은 K개의 중심점을 갖는 분류 알고리즘입니다. 임의의 중심점 K개를 지정하고, 중심점을 기준으로 가까운 데이터들을 해당 클래스로 할당합니다. 그리고 새롭게 형성된 군집에서 새로운 중심점을 갱신하고, 갱신된 중심점을 기준으로 또 다시 가까운 데이터들을 할당하는 과정을 반복합니다. 그렇게 몇 번 반복하면 중심점의 변화가 거의 없는 군집이 만들어지죠. 앞선 설명은 다소 이해가 어려울 수 있습니다. 아래에서 차근차근 살펴보겠습니다.  2... 2025. 4. 1.