로그인

검색

조회 수 1141 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 게시글 수정 내역 댓글로 가기 인쇄
지난 8월 15일, C++0x가 드디어 ISO 회의에서 만장일치로 통과되었다. C++0x는 이제 C++11로 불려질 것이다. 언어 자체의 기능으로 가장 주목을 받는 것은 단연 rvalue reference와 람다 함수다. 표준 라이브러리에 새롭게 추가되는 기능들은 사실 boost에서 이미 지원하고 있었기 때문에 그렇게 커다란 차이를 느끼기는 힘들 것이다.

람다 함수는 특정 범위(scope)에서 이름 없는 함수로 동작하면서 람다 함수 내부에서 외부의 어떻게 변수를 사용할 수 있는지 명확하게 지정할 수 있지만([]), 기존의 함수자(functor)와 개념상으로 큰 차이는 없다. 따라서, C++11이 기존 C++ 사용자들에게 커다란 충격을 줄 부분은 단연코 rvalue reference다.

간단히 말해, rvalue reference는 이름 없는 임시 개체들(꼭 클래스만 의미하는 것이 아니다)에 대한 참조를 생성해준다. 이 과정에서 어떠한 복사 연산자도 호출되지 않기 때문에 쓸데없는 개체 생성 비용이 들지 않는다. 특히, std::move()와 std::forward()는 앞으로 rvalue reference와 관련된 인자 전달 및 복사 비용 감소에 중요하게 쓰일 함수들이다. 간단하게 말하자면, std::move()는 어떤 개체라도 복사 비용 없이 값을 '옮겨' 준다. 이 옮겨준다는 말은 rvalue reference를 처음 접하는 사람들에게 상당한 혼란을 준다. std::move()는 특정 메모리 위치의 값을 정말로 옮기는 것이 아니기 떄문이다. std::forward() 함수는 'perfect forwarding'을 위해 사용되는데, 언뜻 보면 std::move()와 동일한 행동을 하는 것처럼 보이기 때문에 더욱 혼란스러울 것이다. std::move()는 복사 연산을 하지 않고, 언제나 결과는 rvalue reference 형식이다. 그러나, std::forward()의 리턴 타입이 언제나 rvalue reference인 것은 아니다. C++98에서 참조는 포인터와 큰 차별성을 가지지 않기 때문에 존재 의의가 약간 애매했던 것이 사실이다. Meyers는 포인터와 참조 사용에 있어서 명확한 가이드 라인을 제시하지만, 둘 중 어느 것을 사용하든지 일관된 규칙을 지킨다면 큰 상관은 없다. 그러나, rvalue reference의 등장으로 참조가 포인터의 아류에서 벗어나 성능적으로나 개념적으로나 명확하게 자신만의 쓰임새를 찾은 것 같다.

C++98은 불완전한 표준이지만 커다란 이정표였으며, C++ 프로그래머들에게 새로운 도전 거리를 안겨주었다. C++03은 약간의 버그 픽스와 마이너 업데이트였지만, C++11은 C++98 이상으로 커다란 변화를 몰고 올 것이다. 특히, 메타 프로그래밍 지원 강화와 언어 차원에서 지원되는 멀티스레딩 능력은 C++에 '함수적 프로그래밍'과 '병렬 프로그래밍'이라는 새로운 패러다임을 추가할 것이다.

최종적인 워킹 드래프트(working draft)는 다음 링크에서 구할 수 있다. 이것은 완전한 표준은 아니지만, 무료로 구할 수 문서이다 : http://www.open-std.org/jtc1/sc22/wg21/docs/papers/2011/n3234.pdf


C++0x 설명
?

List of Articles
번호 분류 제목 글쓴이 날짜 조회 수
공지 Tool/etc Programming 게시판 관련 2 MoA 2014.11.01 5148
288 LLM Comparing Replit and Cursor for AI-Powered Coding OBG 2024.09.21 413
287 Tool/etc Synology: Top Best Apps For Docker OBG 2024.07.01 327
286 Graphic ASCII 3D 렌더러 만들기 OBG 2024.06.03 354
285 LLM Anthropic, LLM의 내부를 이해하는데 있어 상당한 진전을 보임 OBG 2024.06.03 311
284 LLM llama3 implemented from scratch OBG 2024.05.24 294
283 Tool/etc HuggingFace 공동창업자가 추천하는 AI 분야 입문 서적 OBG 2024.05.24 355
282 LLM [VESSL AI] 뉴욕주민의 프로젝트플루토 — LLM, LLMOps를 활용한 금융 미디어의 혁신 OBG 2024.04.21 681
281 LLM PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware OBG 2024.04.15 262
280 LLM The difference between quantization methods for the same bits OBG 2024.04.14 302
279 LLM Mixture of Experts - Part 2 OBG 2024.04.14 300
278 LLM ChatGPT의 강력한 경쟁 언어모델 등장!, Mixtral 8x7B OBG 2024.04.14 468
277 LLM Real-Time Stock News Sentiment Prediction with Python OBG 2024.04.11 556
276 LLM Getting Started with Sentiment Analysis using Python OBG 2024.04.11 330
275 LLM How LLMs Work ? Explained in 9 Steps — Transformer Architecture OBG 2024.04.11 327
274 LLM 만능 프롬프트 OBG 2024.04.07 702
273 LLM A Beginner's Guide to Prompt Engineering with GitHub Copilot OBG 2024.04.04 318
272 LLM [12월 1주] 떠오르는 '미스트랄 7B'...'라마 2' 이어 한국어 모델 세대교체 주도 OBG 2024.03.05 439
271 Deeplearning Using Machine Learning to Predict Customers’ Next Purchase Day OBG 2024.02.27 315
270 서버 멀티-플레이어 게임 서버와 레이턴시 보상 테크닉 OBG 2024.01.16 425
269 Deeplearning [ifkakao] 추천 시스템: 맥락과 취향 사이 줄타 OBG 2024.01.10 360
Board Pagination Prev 1 2 3 4 5 6 7 8 9 10 ... 15 Next
/ 15