Skip to main content

국내에서 양대 IT업체로 불리는 판교의 K모 회사가 후원하는 어느 학회의 행사 타이틀이

  • 인과 관계를 설명할 수 있는 인공지능

인 것을 본 적이 있다. 홍보된 웹사이트 링크와 여러 정보를 봤을 때, 학회가 주인이 아니라 그 K모 회사가 인공지능 전문가로 시장 포지션을 잡는 홍보 행사에 어용 학회를 끌어들인 느낌이었다. 목적이 좀 불순해도 내용만 좋으면 흔쾌히 갔으련만.

SIAI 학생 중 한 명이 그 학회 행사 링크를 학생들 커뮤니티에 공유하면서 같이 갈 사람을 찾더라.

수업 시간에 이미 여러 차례

예전에 인터넷 커뮤니티 여론을 확인해봐주던 직원에게 전달 받은 내용 중엔

SIAI에서 가르친다는 AI 그거 별 거 없다. 비트코인 사기라고 그랬는데 지금 가격 봐라. 비트코인도 못 맞추는데 무슨 AI 가르칠 자격이 있나

라는 내용의 댓글도 있었다.

주변에 MBA에 강의들어가는 교수들을 만나보면 학생들이 수업 중에

이런 거 모르겠고, 그냥 내일 비트코인 가격 오르는지만 가르쳐 주세요

라는 학생들도 있어서 자기도 그럴 때 수업 분위기 맞춰줄 생각에 100만원 남짓을 넣어놨다는 우스개를 들은 적도 있다.

이제 중국에 모든 산업에서 본격적으로 추월당하기 시작했다는 표현도 나오고, 아예 완전히 역전됐다는 인식도 곳곳에서 보인다. 이미 오래 전부터 예언됐던 사건이 좀 늦게 왔을 뿐인데, 재역전 하기 위해 인력을 키우고 자본을 모으는 이야기는 보이질 않고, 영업이익이 줄어든 기업들을 약올리는 것 같은 기사들만 보인다. 정치권이 국가 발전, 민생 안정 같은 주제들을 생각이나 하나는 이야기를 하던 중에 모 정당의 사무직 관계자에게 들은 표현이다.

  • 난 당 대표실에도 들어가봤잖아, 그 사람들 그런 (나라의 미래, 민생 안정...) 생각 안 해, 다음 총선에 공천 받는지, 당선될 수 있는지, 대통령 후보로 누가 뜨고 어떻게 줄서야 되는지... 그런 생각만 하는거 너도 알거 아냐

위의 두 가지를 종합하면, 나라가 위기에 빠지는데 정치권이나 경제인이나 거기다 언론인까지 문제 해결에 관심도 없고, 그저 당장 자기에게 이득이 되는지 아닌지 여부만 따지고, 깊은 고민 없이 남들이 하는 이야기를 앵무새처럼 받아쓰기만 하고 있다고 할 수 있다.

L모 대기업의 어느 주력 계열사 중 한 곳에 다니는 우리 SIAI 학생에게 최근에 들은 이야기다. 회사에서 기술직 대상으로 AI 교육이라는 걸 하는데, 강사로 온 사람이 분포 함수를 이야기를 하길래 깜짝 놀랐단다. SIAI 교육처럼 Normal 분포가 깨져나갈 때 터지는 현상이나, Poisson 분포로 변형되는 Imbalance case 같은 사례들을 언급하는 수준은 아니지만, 그간 한국 대기업들이 데려오는 강사들 수준이 그저 코드 복붙에 불과했던 걸 생각하면 분포함수를 안다는 것만으로도 놀랄만한 일이지 않냐는 이야기다.

위의 기사를 보면 우리나라 대기업들을 대기업으로 만들어 준 주요 기간 산업들, 심지어 새 먹거리로 생각하고 도전하던 신산업까지 모두 중국에 기술적으로 따라잡힌 사업들 투성이라는 이야기가 나온다.

2020년 말의 어느 추운 겨울 날, 국내 모 대학의 교수님과 함께 AI 대학 설립을 위해 제주도, 경상남도, 전라북도 등의 지방 대학까지 찾아다니며 바쁘게 돌아다니던 시절에 들은 이야기다. 그 교수님 밑에서 AI 박사과정에 재학 중이라는 한 국내 대기업 산하의 이커머스 자회사에서 '벤처 투자' 업무를 한다는 분이 이렇게 이야기 하시더라.

  • 무슨 말씀 하시는지 어려워서 잘 모르겠구요, 해외 유명 대학 교수나 유명 기관에서 인증 받은 거 있나요? 초등학생도 알아들을 수 있어야 투자하죠

그간 SIAI 학부 2-3학년 수준의 교육 자료가 많이 공유됐으니 그걸 기준점으로 삼으면, 당시 나는 학부 2학년 수준의 용어도 쓰지 않고 그 대화를 진행했었다. 대학 교육프로그램 만든다고 그 교수님이 가르치시는 AI 박사과정의 강의노트를 봤던 덕분에, 그 분들을 박사 과정은 커녕 학부 재학생 수준도 안 되는 분들이라고 상정하고 대화에 임할 수 있었기 때문이다. 그 분들은

AI talks turned the table and become more pessimistic
It is just another correction of exorbitant optimism and realisation of AI's current capabilities
AI can only help us to replace jobs in low noise data
Top brains in AI/Data Science are driven to challenging jobs like modeling
Seldom a 2nd-tier company, with countless malpractices, can meet the expectations
People following AI hype are mostly completely misinformed
AI/Data Science is still limited to statistical methods
Hype can only attract ignorance

As a professor of AI/Data Science, I from time to time receive emails from a bunch of hyped followers claiming what they call 'recent AI' can solve things that I have been pessimistic. They usually think 'recent AI' is close to 'Artificial General Intelligence', which means the program learns by itself and it is beyond human intelligence level.

Transition from column to matrix, matrix to tensor as a baseline of data feeding changed the scope of data science, 
Web novel to Webtoon conversion is not only based on 'profitability'
If the novel author is endowed with money or bargaining power, 'Webtoonization' may be nothing more than a marketting tool for the web novel.
Asian companies convert degrees into years of work experience
Without adding extra values to AI degree, it doesn't help much in salary
The relationship between a commercial district and the concentration of consumers in a specific generation mostly is not by causal effect
Simultaneity oftern requires instrumental variables
One-variable analysis can lead to big errors, so you must always understand complex relationships between various variables. 
Data science is a model research project that finds complex relationships between various variables.
Obsessing with one variable is a past way of thinking, and you need to improve your way of thinking in line with the era of big data.

When providing data science speeches, when employees come in with wrong conclusions, or when I give external lectures, the point I always emphasize is not to do 'one-variable regression.'

With high variance, 0/1 hardly yields a decent model, let alone with new set of data
What is known as 'interpretable' AI is no more than basic statistics