CPU는 그저 '메모리'에 올라와있는 프로그램의 명령어를 실행할 뿐이다.

 

메모리 계층 

메모리 계층은 레지스터, 캐시, 메모리(RAM/주기억장치), 저장장치(HDD, SSD) 로 구성되어 있다.

 

  • 레지스터 (Register)  : CPU안에 있는 작은 메모리다.
    휘발성이고 속도가 제일 빠르나 기억용량이 제일 적다.

    레지스터는 CPU의 데이터 처리 속도를 향상시키기 위해 고안된 것이다.
    레지스터가 없던 예전에는 CPU가 메모리에 직접 접근해서 데이터를 가지고 와야 했는데
    이때 많은 시간이 소요되었다.
    따라서 레지스터라는 기억장치를 하나 더 제공함으로써 CPU에서 원할 데이터를
    메모리에서 레지스터에 올려두고 필요할때 레지스터를 통해 원하는 데이터를 가져와 데이터 처리속도를 향상했다.

  • 캐시 (Cache) : 보통 L1, L2 캐시를 지칭하나 L3 캐시도 있다. 
    캐시 또한 휘발성이고 속도가 빠르고 기억용량이 적다.

    프로세서의 CPU 속도(클럭)가 매우 빨라짐에 따라 주기억장치인 메모리와의 속도차이가 현저하게 발생하기 시작했는데
    이 때문에 클럭속도가 아무리 빨라진다 하더라도 메모리에서 데이터를 빠르게 제공해주지 못하여 성능 저하가 발생했다.
    이 때문에 캐시메모리가 필요하게 되었다.  

  • 메모리/RAM (Random Access Memory) : 주기억장치이다.
    메모리는 통칭해서 RAM을 일컫는다.
    휘발성이고 속도와 기억용량을 보통이다.

    초기 컴퓨터는 메모리에서 데이터를 가지고 오기가 매우 어려웠다.
    예를 들어 메모들의 위치를 M[0] ~ M[100] 까지 있다고 가정했을떄, M[56]의 데이터를 가지고 오려면
    M[0] ~ M[56] 까지 순서대로 조회해서 데이터를 가지고 와야했다.
    그러나 근래의 컴퓨터는 메모리가 행렬방식으로 되어 있어 데이터를 랜덤하게 가지고 올 수 있다(RAM).

  • 저장장치 (HDD, SSD) : 보조기억장치를 이야기한다.
    비휘발성이고, 속도가 느리며 대신 기억용량이 많다.

RAM은 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 이를 CPU가 필요할 때 빠르게 전달하는 역할을 한다.

메모리 계층이 위로 올라갈수록 가격은 비싸지는데 용량은 적어지고 속도는 빨라지는 특징이 있다.
이러한 계층이 있는 이유는 경제성과 캐시 때문이다.


캐시 

캐시(cache)는 데이터를 미리 복사해 놓는 임시 저장소이자 빠른 장치와 느린 장치에서 속도 차이에 따른 병목현상을

줄이기 위한 메모리를 일컫는다.

 

위에서 설명했듯이 CPU 클럭과 메모리 사이에 속도차이가 크기 떄문에 계층 과 계층 사이에 계층을 하나 더 만들어
해결하는데 이를 캐싱 계층이라고 한다.

 

예를 들어 주기억장치 계층은 메모리 계층과 보조기억장치 계층 사이에 존재한다.
따라서 주기억장치는 보조기억장치의 캐싱계층이라고 볼 수 있다.

그렇다면 캐싱 계층을 두지말고 캐시를 직접 설정할 때는 어떻게 해야할까? 

 

이는 자주 사용하는 데이터를 기반으로 설정해야 하는데

자주 사용하는 데이터의 근거가 되는 것은

바로 지역성이다.

 

지역성은 시간 지역성(temporal locality)공간 지역성(spatial locality)으로 나뉜다.

 

  • 시간 지역성 : 최근에 사용한 데이터에 다시 접근하려는 기능을 말한다.
    예를 들어 for문으로 이루어진 코드에는 i++ 이라면 변수 i를 연이어 접근해서 +1을 한다.

  • 공간 지역성 : 최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성을 말한다.
    예를 들어 배열 arr에 for문으로 변수 i를 이용해서 데이터를 하나씩 넣는다면
    배열의 각 요소들에 i가 할당되며 해당 배열에 연속적으로 접근하게 된다.

캐시히트와 캐시미스

 

캐시에서 원하는 데이터를 찾았다면 캐시히트라고 하고

데이터가 캐시에 없어 주메모리로 가서 데이터를 가지고 오는 것을 캐시미스라고 한다.

 

그림처럼 캐시히트를 하게되면 데이터를 제어장치를 거쳐 가져오게 된다.
캐시에 경우 CPU 내부 버스를 통해 가져오기에 빠르나, 메모리에 경우 시스템 버스를 통해 가져오므로 느리다.

 

캐시매핑

캐시매핑은 캐시가 히트되기 위해 매핑하는 방법을 말하며 CPU의 레지스터와 주메모리 RAM 간에 데이터를 주고 받을 때

기반으로 설명된다.

* 캐시매핑의 분류는 따로 조사해서 나중에 포스팅 해봐야겠다.

 

 

웹 브라우저의 캐시

소프트웨어적인 대표적인 캐시로는 웹 브라우저의 작은 저장소 쿠키, 로컬 스토리지, 세션 스토리지가 있다.

  • 쿠키
    쿠키는 만료기간이 있는 키-값 저장소이다.
    쿠키 설정시 same site 옵션을 strict로 설정하지 않았을 경우 다른 도메인에서 요청했을 때 자동으로 전송되며,
    최대 4KB 까지 설정가능하다.
    쿠키를 설정할 떄는 document.cookie로 볼 수 없도록 Httponly 옵션을 설정해 주는 것이 중요하다.
    클라이언트나 서버에서 만료기간을 정할 수 있으나 보통 서버에서 만료기간을 설정해준다.

  • 로컬 스토리지 
    로컬 스토리지는 만료기간이 없는 키-값 저장소이다.
    10MB까지 저장가능하며 웹 브라우저를 닫아도 유지되고 도메인 단위로 저장, 생성된다.
    HTML5를 지원하지 않는 브라우저에서는 사용할 수 없으며 클라이언트에서만 수정 가능하다.

  • 세션 스토리지 
    세션 스토리지는 만료기간이 없는 키-값 저장소이다.
    탭 단위로 세션 스토리지를 생성하며, 탭을 닫을 때 해당 데이터가 삭제된다.
    5MB까지 저장가능하며 HTML5를 지원하지 않는 브라우저는 사용불가하며, 클라이언트에서만 수정 가능하다.

 

참고로 데이터베이스를 구축할 때도 메인 데이터베이스 위에 REDIS 같은 데이터베이스 계층을
'캐싱 계층'으로 두어 성능을 향상시키기도 한다.


메모리 관리

가상 메모리 
가상 메모리는 메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는

사용자들에게 매우 큰 메모리로 보이게 만드는 것을 말한다.

 

 

  • 이때 가상적으로 주어진 주소를 가상 주소(logical address)라고 하며,
    실제 메모리 상에 있는 주소를 실제 주소(physical address)라고 한다.

  • 가상 주소는 메모리관리장치에 의해 실제 주소로 변환되며,
    이 덕분에 사용자는 실제 주소를 의식할 필요없이 프로그램을 구축할 수 있다.

  • 가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고
    프로세스의 주소 정보가 들어있는 '페이지 테이블'로 관리된다.
    이때 속도 향상을 위해 TLB를 쓴다.

 

* TLB * : 메모리와 CPU 사이에 있는 주소변환을 위한 캐시

 

 

스와핑

만약 가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 페이지 폴트가 발생한다.

이때 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고, 하드디스크의 일부분을 마치 메모리처럼 불러와 사용하는 것을

스와핑(swapping)이라고 한다.

스와핑

  • 프로세스가 실행될 때는 메모리에 데이터가 있어야 하지만 필요한 경우 프로세스는 실행 도중에 임시로 보조 메모리(HDD)로
    보내졌다가 다시 돌아올 수 있다.

 

페이지 폴트

페이지 폴트란 프로세스의 주소 공간에는 존재하지만 지금 이 컴퓨터의 RAM에는 없는 데이터에 접근했을 경우에 발생한다.

 

페이지 폴트와 그로 인한 스와핑은 밑의 과정으로 이루어진다.

  1. CPU는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩(Exception)을 발생해서 운영체제에 알린다.
  2. 운영체제는 CPU의 동작을 잠시 멈춘다.
  3. 운영체제는 페이지 테이블을 확인하여 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고,
    없으면 프로세스를 중단하고 현재 물리 메모리에 비어있는 프레임이 있는지 찾는다.
    물리 메모리에도 없다면 스와핑이 발동된다.
  4. 비어있는 프레임에 해당 페이지는 로드하고, 페이지 테이블을 최신화 한다.
  5. 중단되어있던 CPU를 다시 실행한다.

* 페이지 * : 가상 메모리를 사용하는 최소 단위

* 프레임 * : 실제 메모리를 사용하는 최소 크기 단위

 

 

스레싱 (thrashing)

스레싱은 메모리의 페이지 폴트율이 높은 것을 이야기하며, 이는 컴퓨터의 심각한 성능 저하를 가지고 온다.

https://straw961030.tistory.com/155

 

스레싱(thrashing)이란 무엇인가

우리는 컴퓨터에서 실제 물리 메모리 이외에 프로세스만의 가상 메모리를 사용하며 주소 변환을 통해 물리 메모리에 접근한다고 배웠다. 또한, 페이징 기법이나 세그멘테이션 기법을 통해 나뉘

straw961030.tistory.com

결국 스레싱은 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생한다.

페이지 폴트가 일어나면 CPU 사용이 낮아지고, CPU 사용률이 낮아지면 운영체제는 CPU가 한가한 걸로 파악해
메모리에 더 많은 프로세스를 올리려고 하기에 악순환이 반복된다.

 

이를 해결하기 위한 방법으로 HDD를 사용중이라면 SSD로 변경하거나
운영체제에서 이를 해결하는 방법으로 작업세트PFF가 있다.

https://bubble-dev.tistory.com/entry/OS-%ED%8E%98%EC%9D%B4%EC%A7%80-Thrashing-Working-Set-PFF

 

[OS] 페이지 Thrashing, Working-Set, PFF

Thrashing Page fault 로 인한 페이지 로딩이 너무 빈번하게 요청되어서 실제 데이터를 가져온 뒤 활용도 못해보고 교체되는 문제 CPU 스케쥴러가 CPU utilization(활용률)을 최대화 시키는 방향으로만 스

bubble-dev.tistory.com

 

 

메모리 할당

메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 할당하는데
연속할당불연속할당으로 나뉜다.

 

  • 연속할당 : 메모리에 '연속적'으로 공간을 할당하는 것을 말한다.
    •  고정 분할 방식은 메모리를 미리 나누어 사용하기에 융통성이 없어 내부 단편화가 발생한다.
       가변 분할 방식은 매 시간 프로그램의 크기에 맞게 동적으로 공간을 할당합니다.
         내부 단편화는 발생하지않지만 외부 단편화가 발생할 수 있다.
       

내부 단편화 -> 메모리를 나눈 크기보다 프로그램이 작아서 들어가지 못하는 공간이 많이 발생하는 상태

 외부 단편화 -> 메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 상태
  -> 할당할 수 있는 비어있는 메모리 공간

 

  • 불연속할당 : 메모리를 연속적으로 할당하지 않는 불연속 할당은 현재 운영체제가 쓰는 방법으로
    대표적으로 페이징 기법이 있다.
    • 페이징은 동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당한다.
      홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해진다.
    • 세그멘테이션은 페이지 단위가 아닌 세그먼트 단위로 나누는 방식이다.
      이는 공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점이 있다.
    • 페이지드 세그멘테이선은 프로그램의 의미 단위인 세그먼트로 나눠 공유나 보안 측면에 강점을 두고
      임의의 길이가 아닌 동일한 크기의 페이지 단위로 나누는 것을 말한다.

페이지 교체 알고리즘

메모리는 한정되어 있기 때문에 스와핑이 많이 일어난다.

스와핑은 많이 일어나지 않도록 설계해야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다.

 

  • 오프라인 알고리즘 : 먼 미래에 참조될 페이지와 현재 할당된 페이지를 바꾸는 알고리즘이다.
    미래에 참조할 알고리즘을 알 수 없기 때문에 사용할 수 없는 알고리즘이다.

  • FIFO (First In First Out) : 가장 먼저 온 페이지를 교체 영역에 가장 먼저 올려두는 것을 말한다.
  • LRU (Least Recentle Used) : 가장 오래된 페이지를 바꾼다. 가장 오래된 것을 파악하기 위해
    계수기, 스택 등을 두어야하는 문제가 있다.

  • NUR (Not Used Recently) : 최근에 사용되지 않은 페이지를 교체하는 알고리즘이다.
    LRU에서 조금 더 진보된 알고리즘이다.

  • LFU (Least Frequently Used) : 가장 참조가 적은 페이지를 교체하는 알고리즘이다.

https://doh-an.tistory.com/28

 

[OS] 페이지 교체 알고리즘 - FIFO/LRU/LFU/MFU/NUR

💡 페이지 교체 알고리즘 운영체제는 주기억장치보다 더 큰 용량의 프로그램을 실행하기 위해 프로그램의 일부만 주기억장치에 적재하여 사용한다. 이를 가상메모리 기법이라 한다. 페이징 기

doh-an.tistory.com

 

'CS Study :' 카테고리의 다른 글

네트워크 : CPU 스케줄링 알고리즘  (0) 2023.02.24
네트워크 : 프로세스와 스레드  (0) 2023.02.22
운영체제 : 운영체제와 컴퓨터  (0) 2023.02.15
네트워크 : HTTP  (0) 2023.02.10
네트워크 : IP 주소  (0) 2023.02.10

+ Recent posts