https://blog.nilenso.com/blog/2025/06/23/how-i-keep-up-with-ai-progress/
ChatGPT 요약
1. 빠르게 진화하는 생성형 AI에 대한 인식의 중요성
- 
	생성형 AI는 저자에게 생애에서 가장 빠르게 발전하는 기술로 보입니다. 
- 
	그러나 한편으론 오해가 많으며, 제대로 이해하지 못할 경우 기업이나 정부 차원에서 기능 결함 혹은 위험한 AI 제품을 내놓을 수 있다고 경고합니다. 
- 
	AI에 대한 일반적인 오해는 크게 두 갈래로 나뉩니다: - 
		과소평가: “AI는 과대광고일 뿐, 곧 사라질 것이다” 
- 
		과대평가: “이제 프로그래머가 필요 없다” 
 이러한 양극단은 AI의 본질과 발전 양상을 제대로 이해하지 못한 데서 기인합니다.
 
- 
		
2. 정보 과잉 시대 속에서 균형 잡힌 이해의 필요성
- 
	AI 관련 정보 환경은 극도로 오염되어 있으며, 무작정 정보를 받아들여서는 오히려 잘못된 이해에 빠질 수 있습니다. 
- 
	따라서 의도적인 정보 선택과 구축이 필요하며, 이를 위해 Nilenso에서는 신뢰할 만한 정보 흐름(pipeline)을 큐레이션해 소개합니다. 
3. 신뢰할 만한 정보 출처 및 파이프라인 구성 (Table of Contents 기준)
블로그에서는 균형 잡힌 AI 이해를 돕기 위해 다음과 같은 정보 카테고리를 제시합니다
- 
	General guidelines 
- 
	Starting Points - 
		Simon Willison’s Blog 
- 
		Andrej Karpathy 
- 
		Every’s Chain of Thought 
 
- 
		
- 
	Official announcements, blogs and papers from those building AI 
- 
	High signal people to follow - 
		Hamel Husain 
- 
		Shreya Shankar 
- 
		Jason Liu 
- 
		Eugene Yan 
- 
		"What We’ve Learned From A Year of Building with LLMs" (모임 글) 
- 
		Chip Huyen 
- 
		Omar Khattab 
- 
		Kwindla Hultman Kramer 
- 
		Han Chung Lee 
- 
		Jo Kristian Bergum 
- 
		David Crawshaw 
- 
		Alexander Doria / Pierre Carl‑Langlais 
- 
		Nathan Lambert’s "Interconnects" 
- 
		Ethan Mollick 
- 
		Arvind Narayanan & Sayash Kapoor’s "AI Snake Oil" 
 
- 
		
- 
	News and Media - 
		Twitter / X 
- 
		Shawn Wang aka swyx / AI news by smol.ai 
- 
		Dwarkesh Patel 
 
- 
		
- 
	Esoterica - 
		LessWrong / AI Alignment Forum 
- 
		Gwern 
 
- 
		
이런 체계적인 정보 구조는 소비자에게 밸런스 있고 깊이 있는 AI 이해를 돕도록 설계된 것입니다.
출처: https://news.hada.io/topic?id=22093
 
				












