현솔이 오전
- 뭐든 하나만 딱 파면 어디든 가긴 간다 우물 파세요
- 회사 면접 갈 때 뼈를 묻겠습니다!! 만 준비하지 말고 그 회사에서 쓰는 시스템이나 아키텍처에 대한 이해를 잠깐 하고 가라. 생각보다 그거 알고 오는 사람이 별로 없다. 시스템이나 해당 부서에 대한 것을 자기 경험과 연관시키는 것이 좋다. 전공과의 연관은 흔하기 때문에 비추천함. 컨퍼런스나 전시도 많이 가보세요 그런 데서 경험이 나와.
- 비대면 면접 볼 때 옷 똑바로 입으세요 그게 님 첫인상임 뭔말알?
- 현직자 입장에서 보통 20분쯤 면접 보면 10분 안에 판단이 선다. 관심이 가는 사람한테는 20분이 짧다고 느껴질 만큼 질문을 많이 한다.
- 1차 면접(현직자님 입장)은 좀 더 부담스러운 게, 2차 면접에서 이 사람 맘에 안들어! 하고 내려오면 곤란하기 때문에 ㅇㅋ라는 확신이 좀 필요해서 질문을 많이 해야 한다.
- 면접 최대한 많이 보세요 보면 볼수록 는다.
- 회사나 지원한 팀에 대한 미리 갖춰진 관심을 좀 중요하게 본다.
- PM과 개발은 아주 많이 다르다. PM은 클라이언트나 업체와의 컨택이 상당히 많고 영업이나 보고서 작성 등이 많음. 개발을 하고 싶어서 온 사람들이 많은 챌린지와 연봉을 받는 자리다. 잘 보고 맞는 자리 찾아서 들어오기.
- 스마트 팩토리에서 오신 분들은 다들 출장이 많다고 하셨음. 국내외 많이 돌아다닌다고 함. 특히나 프로젝트 by 프로젝트지만 경우에 따라(예산이 충분하다면) 현지 상주를 요청받기도 함. 1년에서 1년 반 정도 진행하는 프로젝트 기간 동안 대략 6개월 정도 현지에 나가서 개발하고 오고 그러기도 한다 함. 예산이 충분하지 않은 경우 상주할 수가 없음. 엄청 돌아다님. 한 곳에 앉아있으면 다른 클라이언트들과의 업무가 밀리기 때문.
- = 예산이 충분하면 프로젝트 하나만 똑바로 파도 되는데 불충분하면 멀티스레드로 돌려서 벌어야 한다 그만큼 돌아다녀야 한다
- 해외 나갔다가 프로젝트 끝나고 돌아갈 때 약간의 관광을 즐겨도 된다 그것까진 회사가 터치 안함. 출장 많은 대신 본사에서는 좀 자유로운 생활이 가능하다.
- SI는 고객사나 협력사를 많이 만나다보니까 생활이 좀 자유로운 면이 있다. 오늘 강연자님은 이 강의 끝나면 바로 퇴근이라고 하심(이거 13시에 끝남)
- 현대오토에버는 주40시간제, 재택은 없어짐. 하지만 재택이 없어도 ㅇㅋ일 만큼 자유로운 회사다.
- 개발자들은 며칠 안에 해야 하는 업무들이 되게 빡빡하긴 한데 스케줄링만 잘 하시면 여유는 챙길 수 있을 것이다.
- PM은 사람을 상대하는 일이라 스트레스 많이 받음. 아무리 그룹사라도 현차는 대감댁이다. 그 응대에서 스트레스받긴 하지만 스케줄링은 알아서 할 수 있는 직종이다.
- 연봉은 다 아시죠? 많은 편이에요(강연자님 의견). 기본급 낫배드, 자잘한 복지가 많아서 만족. 오토에버는 현대/기아 차량 할인이 된다. 직급 따라 L1~L5로 나누는데 L3 기준 15% 할인받는다.
- 남자들도 육아휴직 많이들 쓴다
- 삼성역에 본사가 있다는 점이 꽤 큰 메리트다. (강연자님 기준) 판교나 뭐 어디 많이 다녀봤는데 삼성역이 제일 낫더라.
- 코어타임제라 10시부터 15시까지만 앉아있으면 ㅇㅋ임. 나머지 시간 출퇴근은 자유임. 강연자님은 보통 9시 반 출근하심. 10시 직전 출근해도 막 뭐라 하지는 않음. 3시 퇴근 ㅇㅋ. 근무 시간만 충분히 채우고 일 똑바로 하면 알아서 시간 관리해도 됨.
- 포괄임금제임… 그래서 출퇴근 맘대로 하는 것 같음.
- 말하는 느낌상 포괄임금제라 야근 하든 말든 월급은 거기서 거기라 다들 짧고 굵게 일하고 가는 것 같음
- 자유도 높다 야근 출장 거부 가능. 물론? 내가 안하면 누군가 해야 할 것이기 때문에 조정은 필요.
- 상급자 1:1 면담 많이 한다 함. 인력 유출을 막기 위한 케어임.
- 상급자 라인이 좀 젊은 편.
- 팀장 밑에 그룹장이 있는 식이고 그룹장들은 30대 중반쯤.
- 강연자님: 만약 오토에버 오시면 굉장히 좋겠,, 어요. 다른 팀으로 오시더라도 연락 주시면 커피 한잔 사줌.
현솔이 오후
스마트 비전
- 스마트 비전: 카메라를 통해 이미지로부터 목적하는 정보를 인식하고 판단하는 기술
- 조명도 고려 대상이다. 어떤 부분을 어떻게 보고 싶은지에 따라 조명을 다르게 쓸 수 있음.
- 활용 사례: PCB inspection, 로봇 가이던스(로봇에게 눈앞의 사물의 위치를 알려줌으로써 로봇이 판단할 수 있도록 함), measurement(기어 치수 측정 등), 바코드/QR 리딩, OCR, 자율주행, 의료, 안전(헬멧 및 보안경 착용 여부, 위험지역 접근 여부 등)
- rule base VS AI
- rule base: 고전적인, 연산식이나 규칙성 기반 판단. 정답을 요구하는 수식이나 패턴을 기반으로 정답지를 찾아가는 방식이나, 융통성에 한계가 있음. 치수를 재는 정도라면 가능하지만 데이터에 기반하는 문제에 적용 어려움
- AI: 학습을 시켜서 각종 정보를 스스로 취득하여 처리하고 판단하게 함. 예를 들면 불량 판정 같은 것.
- 뭐가 더 좋다고 정해진 건 아님 상황에 따라 어울리는 것을 쓰기
- 카메라: 현실 공간에서 빛을 받아 이미지를 만들어낸다는 게 기본 원리. 그 안에 센서나 렌즈나 그런 복잡한 것들이 있지만 이번에는 그냥 카메라로부터 이미지를 얻어 컴퓨터가 연산 수단으로 사용하고, 결과를 얻고, 문제를 해결한다는 것만 생각하기로 하자. 카메라는 기본 입력 수단인 것임.
- 카메라로 이미지를 얻는 원리(그냥 비전의 출발점 정도로 생각해주기)
- 빛이 핀 홀 형태의 작은 구멍을 통과한다
- 반대쪽에 뒤집어진 상이 맺힌다
- 카메라로 이미지를 얻는 원리(그냥 비전의 출발점 정도로 생각해주기)
- 이미지는 행렬로 취급한다. 이미지는 해상도를 기반으로 2차원 행렬로 해석될 수 있다. 각 칸에는 뭐 RGB 값 명도 값 그런 게 들어가는 거임. (MNIST 손글씨 데이터 참고하기)
- 싫어도 받아들이세요 이미지는 행렬이다
- 해상도는 행렬의 크기를 나타냄. 각 칸에는 색에 대한 정보가 들어간다.
- 색의 표현: RGB 알죠? 다만 주의할 점 섞으면 검은색이 되는 현실세계의 색과 달리 여기서 다루는 색은 다 섞으면 흰색이 된다.
- 자 생각을 해봐. R, G, B로 하나의 색을 나타낼 거야. 색 하나에 숫자가 3개 필요하죠? 그러니까 2D 이미지 1장을 표현하려면 2차원 행렬이 3겹 필요한 거임.
- 다시 컴퓨터 비전으로 돌아와서: 카메라로 찍는다 → 처리한다 → 판단한다
- 활용 가능 사례
- 분류 classification: 이거 고양이 사진이야?
- 탐지 detection: 여기에 고양이가 있다
- 세그멘테이션 segmentation: 고양이 실루엣은 이래 생겼다
- 트래킹: 고양이가 이리로 이동한다
- 행동 탐지 action detection: 고양이가 무엇을 하고 있다
- 필터링: 노이즈 제거, 해상도 상향, 낙서 지우기 등
- 이진화: 특정 수준 이상으로 밝거나 어두운 부분을 흰색과 검은색으로 바꿔서 명암이 극명한 흑백 이미지를 만드는 것. 0부터 255까지 있는 이미지를 0과 1로 만들기
- 이미지 특징점: 이미지로부터 특징점을 찾아 매핑하기. 예를 들면 어떤 성의 사진을 주고, 다음으로 어떤 성의 사진을 또 줬을 때 두 성이 같은 성인지 알아내도록 하는 것. 특징점(말 그대로 point 점)만 싹 뽑은 다음 그 점이 다음 이미지에서는 어디에 있는지 매핑해서 알아내는 거임.
- 전체 이미지를 볼 필요 없이 요약된 핵심 데이터만 빠르게 연산하는 데 사용됨.
- 모션 추정: 사진에 사람이 있을 때, 그 사람이 어느 방향으로 얼마나 움직였는지 알아냄. 사람의 특징점을 추출해서 시간마다 그 특징점이 어떤 방향으로 얼마나 이동했는지 추적하는 것.
- 군집화: (어려우니 가볍게 얘기하겠다) 비슷한 색깔들끼리 폴리곤 묶기. 이미지 세그멘테이션에 활용되는 원리임.
- 3차원 이해
- 이미지는 픽셀이라는 단위로 표현된다. 그럼 cm나 mm는 어떻게 함? → 3D에 대해 이해를 하시면 됩니다
- 행렬이란 건 2차원이다. 보통 X축과 Y축이 있죠. 이게 3D로 간다고 하면 Z축이 필요한 거임. 1장으로는 안 되는 Z값을 찾는 게 3D 컴퓨터 비전이다.
- 첫 번째 방법은 2장의 이미지로 Z값을 찾아내는 것. 사람의 양안의 원리를 활용함. 사람은 양 눈으로 볼 때는 사물의 거리감을 잘 인식할 수 있다. 그게 물체의 상이 두 눈에 도달하는 시차를 이용한 거임. 눈 하나 가리면 거리감이 사라진다. 시차가 없으니까. 양안 카메라는 그런 원리를 이용한 것임. 이게 뭐 딥하게 들어가면 스테레오 비전 이런 게 있긴 한데 그냥 그런갑다 하세요~
- 양안 카메라에서 눈이 늘어나면 이제 카메라가 대상을 360도 빙 둘러 촬영해서 3D 모델을 만드는 게 되는 거임. 선형대수를 벗어나 기하학의 영역에 들어가게 되지만? 그냥 뭐 그렇게 하는 겁니다~ 수학적 계산의 결과를 토대로 이미지의 특징들이 순차적인 이미지들 사이에서 어떤 관계를 갖는지 계산하고 맞춰서 3D 모델이 되는 거임.
- 그냥 이런 알고리즘이 있다~ 라고 생각하세요
- 그래서 2번째 방법은요 첫 번째만 말하셨잖아요
- 리마인드: 이미지는 행렬이다
- 두 유 노 CNN?
- AI는 개복잡한 블랙박스다. 입력이 들어가면 복잡한 블랙박스를 거쳐서 출력이 나오는 구조다.
- MLP, CNN, 트랜스포머 다 뭔데? 라고 하기 시작하면 참 복잡하고 어려워요. 비전이니까 CNN부터 시작을 하려고 하는데 왜 이것부터 시작인지 잠깐 얘기를 해보겠음.
- 비전은 MLP를 쓰기가 참 어려워요. 왜겠어? 일단 이미지를 1차원으로 취급하게 된다는 점도 있고, 계산할 게 너무너무 많아. 입력이 n개라고 치면 블랙박스에서는 그게 몇배로 불어나는데 그 계산량은 땅 파서 나오겠습니까? 그리고 이미지를 1차원으로 취급하면 위치 정보가 사라져요. 2차원을 유지하면서 AI를 굴려먹어야 합니다.
- 그 2차원 다루기를 위한 게 CNN이다~
- 커널이라는 게 있어요. 일정한 크기(입력 이미지보다 훨씬 작은)의 커널이 이미지를 쭉 미끄러지면서(슬라이딩) 훑고 갑니다. 이때 특징점을 찾아서 이미지를 요약하기 시작하는 거임. 그렇게 데이터를 줄이고 특징만 남겨. 이미지는 특징점을 찾는 게 핵심이거든. (물론 그 특징점이 진짜 점 형태는 아니긴 함. 아무튼 정보를 담고 있다) 그렇게 이미지를 요약하고 나면 1차원으로 납작하게 눌러서 학습시키고 답을 출력하게 함.
- 왜 구조가 이따위냐? 처음 시작은 분류 문제였기 때문임. ImageNet Large Scale Visual Recognition이라는 대회가 있어요. 예전엔 야차룰로 어떻게든 구분만 하면 되게 만드는 대회였는데 CNN이 등장하면서 성능을 확 올리게 된다. CNN의 목적 자체가 저 대회를 위한 것, 분류 모델이었기 때문에 그렇게 된거임.
- 그 이전까지는 레이어라는 걸 두껍게 쌓아서 만들었다. 얼마나 많은 레이어를 어떻게 잘 쌓냐 했던거임. 그 중에 ResNet은 지금도 현역이니 이름 알아두세요~
- CNN 대표 모델
- ResNet
- DenseNet
- EfficientNet: 효율적 → 현역임
- MobileNet: 모바일에 넣을 만큼 경량화 → 현역임
- 틈새 질문: AI를 많이 쓰나요 룰 베이스를 많이 쓰나요?
- AI가 유도리가 좀 있긴 한데 데이터 구축이 필요해서 대뜸 도입하긴 어려운 편
- 그러나 결국엔 AI를 하게 될 것
- AI의 TODO
- 경량화
- 데이터 수급 → 시뮬레이션 기반 가상 데이터 수급, 증강 등
- 트랜스포머
- 이게 왜 갑자기 나왔는지부터 말을 해봅시다. 알렉스넷 ResNet 등등 CNN 기반 모델이 유행하기 시작한 시점. 보통 발전이 빠른 분야가 언어 분야임 LLM 같은 거. 데이터가 많아서 연구도 활발하고 모델도 그럴싸하게 나오거든. 어쨌든 CNN 유행 탈 시점에 나온 게 어텐션이라는 언어 모델임. 당시 존재하던 언어 분야의 많은 문제들을 해결하기 위해 나온 것임. 거기서 발전한 게 트랜스포머.
- 그리고 비전도 트랜스포머 쓰고 싶어 라고 해서 나온 게 ViT라는 비전 트랜스포머.
- CNN은 커널 단위로 특징을 추출해서 로컬의 특징을 학습한다. 고양이 눈은 어떻게 생겼고, 코는 어떻게 생겼고,,, 하는 방식임
- ViT는 처음부터 전체를 보고 특징을 잘 뽑아보자 하는 모델임. 단점 개무거움(계산량이 아주 매우 많아서 보통 PC로는 제대로 돌려먹지도 못한다).
- 그냥 뭐 역사적인 흐름만 알아두세요~
- AI 모델이 컴퓨터 비전의 어떤 문제를 해결하냐
- classification: 이것은 고양이다. 이게 근본임.
- detection: 분류+위치 특정 → 객체 탐지. 어디에 고양이가 있어.라고 네모 쳐주기
- segmentation: 고양이는 이렇게 생겼어. 객체 탐지 후 정확한 외곽선 그려주기.
- semantic seg.: 이미지에서 객체별로 분류해서 색칠하기. 예를 들면 하늘, 뒷산, 잔디밭, 고양이를 구분해서 4개의 색깔로 칠하는 것.
- 사람 자세 탐지: 이 사람은 달리고 있다. 그냥 있다고 봐두기만 하세요~ 아니 뭐 아예 안쓰이지는 않겠지 사람이 V 하면 문 열어줘 이런 것도 가능하고, 가끔 그런 기능이 요구되는 산업 현장이 있기도 함.
- OCR: 이미지에서 텍스트 영역 찾아서 무슨 텍스트인지 읽어내기 산업 현장에서 많이들 씀
- 이상치 탐지: 아직 제대로 풀리진 않았는데 공장에서 많이 쓰는 게 이상 탐지임. 불량 검사 있잖아요. 데이터 불충분으로 잘 풀리지는 않는 상황임. 정상 데이터로 싹 학습을 시킨 다음 비정상이 들어오면 구분할 수 있게 하는 거임. 어디에 결함이 있는지까지 찾아주기. 정확도 낮은 분야임.
- 3차원 복원: VGGT라는 기술이 작년(2025년) 중순쯤에 나온 거라 발전이 많이 필요한 분야임. 이러한 시도가 이전에도 많았는데 이제 그럴싸한 성과도 있고 함. 전망이 좋아서 알아두라고 꺼내오신듯.
- 멀티모달은 또 뭐게요
- 단순히 이미지만으로는 좀 부족해 더 복합적인 문제를 좀 풀어야 쓰겠다. 이미지랑 텍스트를 줄테니 같이 먹어볼래?
- 사진과 텍스트가 입력됐을 때 AI 모델이 그걸 다 집어먹고 텍스트의 특징과 이미지의 특징을 학습해서 인간의 질문에 답변할 수 있도록 하는 것. 텍스트는 이미지로 충분히 설명하지 못한 맥락을 추가로 제공하고, 사람도 AI와 의사소통할 때 텍스트를 쓰기 때문이기도 함.
- 로봇과 VLA
- 2026년 CES에서 현차가 아틀라스를 발표했고, 그 전에도 스팟이라는 개 로봇을 시도하고 있다. 결국엔 스팩에서 조만간 중요해질 것이 로봇이다. 이제 어떤 일에 로봇을 쓸래 하면 VLA에 쓰게 될 거다.
- VLA: vision language action. 시각+언어적인 입력을 바탕으로 로봇에게 액션을 지시함.
- 당장 이것부터 시작하라는 건 아니고 요즘 트렌드 보여주는 거임~
- 그냥 지금까지 소개한 내용 보고 하고 싶은 거 찾아서 하세요 전부 다 하라고 알려준 거 아님~ 두려워 말라
스마트 비전 적용 사례
- “현대”오토에버다 보니 현대차 그룹사에 대해 스마트 비전 도입을 많이 하고 있다. 메인 고객사는 현차라는 거임.
- 완성차 제조 공정이라는 건 프(금형 눌러)차(용접해서 몸체 만들기)도(색칠)의(마감 조립)
- 사례 1: 도장면 외관불량 검사 비전 시스템
- 색칠 다 했는데 긁힌 건 없는지, 뭐 묻은 거 없는지 검사
- 카메라 30대 정도 씀. 근접촬영하고 비전 알고리즘으로 결함 위치와 유형을 알아냄
- 사례 2: 프레스 패널 검사 비전 시스템
- 제대로 프레스가 됐는지, 찍어내면서 결함은 없는지 등등
- 사례 3: 도어 조립 및 사양 검사 비전 시스템
- 문짝에 바코드가 있는데 카메라로 일단 찍고 각 영역에 부품이 잘 들어갔는지 검사
- OCR이나 바코드를 이용해서 해당 차종에 맞는 문짝을 붙였는지 검사
- 사례 4: 다관절 로봇 기반 3D 비전 시스템
- 고가의 장비로 3D 촬영을 하고 모델이 만들어지면 객체를 찾거나 치수를 재거나 등등 함
- 차량의 공차가 허용 범위 이내인지 검사하는 거임
- 로봇이 조립할 건데 다음으로 어떤 부품을 집어야 할지 파악하고 조립하게 하는 데에도 쓰임
질의응답
- 디지털 트윈 쓰세요?
- 아뇨 아직
- 근데 다른 회사들 얘기 들어보면 쓰긴 한다더라.
- sim to real이라는 게 있어요. 시뮬레이션은 물리 엔진이 있어서 최대한 현실과 비슷하게 만든 건데 현실세계는 그 물리엔진이랑 똑같이 굴러가지도 않고 오차도 있고 돌발상황 문제도 있어서 시뮬과 현실의 갭을 어떻게 줄여 하는 문제가 있다 → 그래서 우린 안 씀
- 쓴다던 회사들도 그걸 되게 고민하고 있고 시작 단계일 뿐임
- 3D 기반 카메라가 고가인데 혹시 라이다 쓰세요?
- 라이다는 아니고요 (자율주행은 많이들 쓰지만) 스캐너는 라이다는 아니고 구조광 스캐너라고 하는 다른 물건임.
- 라이다를 쓰는 경우는 주로 주행이나 3D로 공간 전체를 찍어야 할 때
- 취득하는 공간의 범위에 따른 차이로 보인다. 스캐너는 4-5미터 정도면 되고 라이다는 공간 전체를 대상으로 함
- 스캐너가 빛을 쏜다고 했는데 테슬라는 카메라만 갖고도 잘 하잖아요. 그럼 가격적인 이득이 있을 것 같은데 오토에버는 계속 이 비싼 거 쓸래 아님 카메라 쓸 계획이 있니?
- 테슬라는 자율주행이잖아. 그건 눈앞에 뭐가 온다 내가 어디로 가야 한다 그런 문제를 해결하는 거임. 스마트 팩토리랑 성격이 다름.
- 스팩은 본네트를 정확한 위치에 올려놓기라는 과제가 있다면 오차 허용 범위가 마이크로미터임.
- 테슬라는 그정도의 정확함이 요구되지 않아. 슬램 같은 다른 기술들도 쓰고 있어서 분야가 다름.
- 마이크로미터의 정확도 확보를 위해 비싼 거 쓰는 거임. 밀리미터 할 거였으면 카메라 충분히 쓰지.
- 라고 최대한 돌려돌려 “개발자가 안된다고 말했다”
- 불량 데이터는 어디서 얻으세요?
- 쉽지가 않아요 참.
- 현장에서 수집한다고 하면 그냥 일부러 망가뜨려. 그걸 찍어. 자연산은 얻기 어렵거든. 다들 그럴걸.
- 아니면 합성 데이터 쓰기. 예를 들면 하나 찍어서 스크래치 합성하기. 아무래도 실제와는 괴리가 있어 학습 성능에 좋은 영향을 준다고 생각하긴 어려움
- 이런 일 하려면 오토에버에서는 대졸 신입 잘 안뽑죠? 학력이 얼마나 필요할까요?
- 어,, 컴퓨터비전이라는 경험이 있으면 도움이 되겠죠? 개인 공부를 해도 되고 부캠을 가셔도 되고 석사를 가도 되는데 석사가 답이라고는 생각 ㄴㄴ
- 좋은 교수님 만나면 물론 굿이지만 부캠 들어가서 AI 기반 스펙이라도 만드시면 당장 들어와서 하면서 배울 수는 있겠습니다
- 그냥 많이 해보세요
- 카메라로 찍는 거 오차 심하다고 하셨는데 왜 그런가요 (결함검출 부분)
- 데이터가 부족한 게 크다.
- 결함이 있는 데이터가 많으면 그냥 그걸 학습시키면 되는데요 애초에 이런 류의 모델 자체가 연구가 부족함. 데이터 문제도 있고. 다양한 문제가 있어서 상용화 수준이 못됨.
- 비전 데이터 분석할 때 모든 데이터를 다 서버로 올려서 서버에서 하는건지 엣지가 하는건지?
- 케바케이긴 한데요 저희는 주로 PC를 좀 좋은 걸 사서 PC에서 끝냅니다
- 보안 문제 때문에 인터넷이 안되는 경우가 있어서 클라우드 못쓰기도 하거든요
- 모델 학습은 본사에서 하고 추론하는 결과 모델만 현장에서 돌리는 거임
- 멀티모달의 경우 정보가 상당히 많아져서 사양 많이 먹을 것 같은데 뭐 터지거나 하지는 않습니까?
- 현재 수준에서는 서버사이드에서 그걸 먼저 하고 있고, 현장에서 돌리자니 사양이 많이 필요해서 지금은 그냥 자원 때려넣기로 버티고 있다.
- 현장에서는 최신 PC 쓰기 좀 그래서 도입을 못한거냐?
- 그건 아님. 현장용 PC는 견적을 내서 넣는건데 어쨌든 공장에서는 잘 돌아가는 게 장땡이라 리소스 부족 문제는 아님(아예 없는 문제는 아니지만) 적어도 배포 모델을 돌리는 건 문제 없게 하고 있다
- 멀티모달은 아직 적극적으로 쓰고 있지 않다. 굳이 그걸로 뭔가 하려는 니즈가 없어. 이거 말한 이유는 미래를 보라고 알려준거지 지금 우리가 쓰고 있다~ 가 아님. 뭔말알?
- 다 경험담이 아니고요 최근 연구 트렌드도 들은 게 좀 있어서 설명한거임 그냥 동향으로 생각하세요
- 근시일 이내에 도입될만한 기술은 아님
- 현장 도입 시 블랙박스 문제는 어케 함? (결과에 대해 설명이 안되는 문제)
- 보통은 하이퍼파라미터를 조정해서 해결하기도 하고
- 보통 AI는 모델이 문제거나 데이터가 문제임. 모델이 문제인 경우에는 수치를 조정하거나 모델을 바꾸면 되고, 데이터가 문제라면 데이터를 하나하나 뜯어볼 수밖에 없음. 다시 분석해서 학습에 도움이 안될 데이터를 걸러낸다든가 해서 성능을 올리는 거임.
- 데이터 중요해요. 쓰레기 심은 곳에 쓰레기 난다.
- 좋은 데이터는 어떻게 알아?
- 그것은,,, 노하우입니다. 해봐야 알아. 뭔가 대놓고 공부할만한 자료는 없고 해봐야 알아.
- 라인이 바뀌거나 조명이 바뀌는 등 현장의 변경 이슈로 일반화나 지속적 학습이 중요하다는 얘기 들었는데 이런 부분에서는 어케 하고 있음?
- 우리는 특정 부품을 집중해서 보려고 조명을 설계했는데 그게 잘 안보인다든가 하는 문제가 꽤 있어서 시뮬레이션으로 조치하거나 사람이 직접 헤딩하는 경우도 꽤 있다. 그런 문제가 AI에서만 있었으면 지속적 학습을 고려해볼 수 있는데 룰 베이스에서 그게 생기면 해결이 안되니까 직접 해결하는 면이 있음
- 지속적 학습 기법도 정확도가 충분히 올라가지 않았음. 적어도 강연자님이 마지막으로 논문을 봤을 땐 70-80% 수준이었고, 현장 도입하기엔 부족함. 연구 더 필요하다.
- 전에 강의하신 분이 생수공장 보여주셨는데 생수병 불량 데이터 모아서 분석하는거 보여주셨거든요. 이상탐지도 비슷하게 적용될 것 같은데, 불량품 모아서 하면 될 것 같은데 왜 데이터가 부족하다고 하시는 거죠?
- 여기서 소개한 이상탐지의 경우 불량을 우선적으로 학습한 게 아니라 정상품만을 학습하고 거기서 차이가 있는 경우에 불량으로 판정하는 방식이라 그럼.
- 품질 쪽에서 많이 쓸 것 같은데, 이게 돈도 많이 들고 품종이 달라질 때마다 업데이트가 필요할 것 같은데 회사는 뭘 보고 계속 돈을 쏟아붓는 거냐?
- 업데이트를 최대한 적게 하도록 하고 있음
- 시뮬레이션을 결합해서 현장의 공수가 덜 들게 하고 있다
- 그럼 기업에서는 유행하니까 AI를 쓰는거임 아님 이익을 검토하고 하는 거임?
- 그것은,, 상부가 누구냐에 따라 다르다. 도장 공정의 경우 후자였다. 룰 베이스와 AI를 결합한 사례였는데 이 경우 룰 베이스를 기존에 썼고 정확성 향상을 위해 AI 도입을 추진하고, 검증하고 도입한 거다
- 데이터 수집할 때 빛을 어떻게 비추냐에 따라 다르다면서요, 그러니까 물리적 조정을 먼저 하는지, 데이터 전처리를 먼저 하는지 궁금
- 전처리로 때워지면 그게 베스트. 조명 조정은 현장 환경을 바꿔야 하고 잘 되던 모델이 안되게 될 수도 있어서 최대한 전처리로 때운다. → 이게 필터링이라는 거임
- 그게 안되면 현장에 가볼 수밖에,,
- 이 분야 일할 때 필요한 기술 스택
- AI만 할거면 파이토치랑 대표적인 AI 모델들 하면 되죠 뭐 직접 코드를 짜본다든가 하는 것들
- 아니면 openCV로 고전적인 비전부터 시작해보기도
- 룰 베이스가 필수는 아닙니다 우리 팀에도 AI 온리 인력 있어요
- 근데 AI → 룰 베이스는 어려운데 룰 베이스 → AI는 좀 더 수월하다
- AI만 할거라도 룰 베이스는 도움이 될 거다
- 언어는 결국 파이썬. 룰 베이스도 파이썬 가능. 강연자님은 C++ 파이썬 둘 다 쓰심. 임베디드나 시간 단축 필요가 있을 때 C++ 들어간다. 보통 파이썬 아님 C++이다.
MES
- 지금까지 설명들은 다른 솔루션들은 장애가 좀 나도 라인에는 지장이 별로 없는 편인데, MES는 터지면 바로 공장 멈춘다
- MES 알아요? 제조 실행 시스템 말이요. ERP는 알아요? 생산 관련 모든 데이터를 보관하고 관리하는 게 ERP잖음.
- 오늘 말할 MES는 완성차 MES임. 오토에버에의 MES는 전 세계 nn개 공장을 가동하고 있는 MES임
- ERP는 생산 계획 데이터를 갖고 있어. 영업이라고 하죠 카 마스터 말입니다. 차 사러 가면 있는 사람들. 그 사람들이 쓰는 판매 시스템이 오토에버의 시스템이기도 하고, 거기서 고객들이랑 무슨 차를 사기로 계약을 해. 그럼 그게 ERP로 넘어가서 재고랑 일정 확인하고 생산 계획을 만들어줘. ERP는 그 생산 계획 데이터를 MES로 보내. 전국에서 오더를 받겠죠? MES는 한번에 몇천 대씩 생산 계획을 받는거임.
- 그럼 MES가 그 공장 내 장비들에 생산 계획을 다 보냄. 그걸 기반으로 모든 로봇이 자동화돼서 생산하게 되는 거임. MES가 고장난다? 바로 라인 멈춘다.
- MES는 개중요하고, 다른 시스템들은 고관용성이라고 해서 뭐 하나 잘못돼도 스페어가 있어서 살아서 운영이 가능하다~ MES는 제일 고관용성으로 제공된다. 다른 서비스는 고장나면 빨리 고치면 되는데 MES는 그러면 안되거든.
- MES는 30분만 고장나도 회장님께 고장 보고서가 올라간다. 그 시간 동안 놀고있는 인건비만 해도 한두푼이 아니거든.
- MES가 모든 데이터를 갖고 있거든요. 다른 시스템들은 다 MES 데이터에 의존한다 이 말~
- 여기까지 사실 인트로였습니다
- 우리 회사 안에서도 MES 한다 하면 어려운 일 한다고 인정해줌. 하고 싶으면 마음의 준비 좀 하시고 대신 프라이드가 좀 있어. (그래 보여요)
- 우리 팀은 출장 많다. 전 세계 38개 공장에 MES를 구축하러 다니거든. 최근엔 카자흐스탄 갔다왔고, 올해는 사우디 간다. 질문 가능~
- MES라는 건 현대오토에버의 완성차 MES뿐만 아니라 제조하는 모든 업체에서는 각자 독자적인 MES를 갖고 있어. 리스크 있고 중요한 시스템인 것도 다들 마찬가지임. 진짜 매우 중요하거든요.
- 현대오토에버의 그룹 표준 MES에 대해 설명해줄게. 근데 작년에 3시간 동안 설명했는데도 부족했는데 올해는 1시간밖에 없어. 함 해볼게.
- MES는 시스템 자체가 뭐 드러난 게 그다지 없다. 거의 백엔드다. 눈에 보이지 않지만 굉장히 중요하다. (프라이드 어디까지 올라가는 거예요?)
- MES 시스템은 40년 정도 됐고요 40년산 기술로 구성됐어요. 사실상 무결하다. 장애가 안 나. 거~~~~의 안난다. 한 3년에 한 번 작은 장애가 나는 정도.
- 옛날엔 OOP 뭐 이런 거 없었어요 그래서 하나에 통으로 만들고 나중에 가서 분리하고 뭐 클라우드에 올리고 최적화하고 이렇게 진행했어요~ 이런 건 크게 의미 없을듯 ㅇㅇ
- MES는 8대 메인 기능으로 나눈다. 위에 4개가 중요하다.
- 생산 계획: ERP가 준 생산계획을 MES 입맛대로 바꿔놓기
- 생산 지시: 오더 보내기
- 진도관리: 지금 어디서 무슨 일이 진행되고 있는지
- 생산현황: 할당량 다 채웠니?
- 설비현황: 로봇 상태 어떰?
- 공정제어: 이건 여기로 가고 저건 저기로 가세요
- 공정품질: 공정별 결과물을 수집해서 품질 검사
- 공정물류: 각 공정에서 나온 걸 실어서 다음으로 작업해야 할 곳에, 버퍼가 빈 곳에 보낸다
- 자료 되게 있어보이죠? 저희는 온프레미스와 클라우드 환경을 다 제공합니다
- 온프레미스는 예전 방식임. 뉴스 보면 가끔 어디 해킹당했네 뜨면서 서버실 보여주잖아요. 그걸 하나하나 구축한 그거(CCR). 서버들은 다 용도가 정해져 있다. 그런 서버들이 독자적으로 운영되게 만든 게 온프레미스
- 클라우드는 뭐 방법은 많아요 VM을 올려도 되고 쿠버네티스를 올려도 되고 뭐 그런 거 다 지원된다
- 서버는 정보계와 지시계로 나눈다
- 정보계 봐봐 설비 정보 확인 안되면 불편할 뿐 공장 멈출 일은 아니죠? 그런 중요하지 않은 정보를 몰아놨음
- 지시계는 생산지시 같은 개중요한 기능 들어갑니다. 멈추면 안돼. 그래서 가벼워야 해. 정보계가 하나하나 로그를 남기는데, 그걸 지시계가 같이 쓰다가 서버 용량 다 쓰거나 데드락 걸리거나 등등 이슈가 생기면 지시계 어떻게 되겠어요. 정보계 때문에 지시계에 문제가 생기지 않도록 하기 위해 따로 나눠서 관리하고, 모든 서버는 독립적으로 관리된다.
- 그룹표준 MES 아키텍처
- 정보계와 지시계로 나뉜다, 로컬과 센터로 나뉜다
- 로컬은 VM을 쓰고 있는데 쿠버네티스로 바꾸는 중이다. 과도기임. 지금 다 닷넷 쓰고 있는데 스프링부트와 Vue.js로 바꾸고 있다.
- 센터는 클라우드 환경에서 돌아가고 있고, 이미 Vue.js 자바 쓰고있다. 여긴 뭐 정보계라 장애가 나도 큰 이슈가 없다.
질의응답
- 이 부서 취업하려면?
- 면접 오시면 저랑 면접하게 되실겁니다. 전 풀스택 개발자라는 말을 경계합니다. 본인이 뭘 얼마나 잘할 수 있는지 명확하게 강점을 아는 것을 선호한다. 지금 시스템이 C# 베이스라고 해도 자바 개발자 채용 가능하다. 자바를 해봤으면 자바에서 이정도까지 써봤다, 이정도는 아니었다 등 자신의 강점을 확실하고 명확하게 어필할 수 있는 사람을 요구한다.
- 그리고 우리는 DB를 많이 쓰기 때문에 SQL 쿼리 잘 써야 하고, 튜닝,,도 중요하긴 한데 요즘 AI가 잘하니까 우선순위는 아님. 암튼 쿼리를 봤을 때 이해는 해야 할 거 아님. 면접에서 쿼리 질문하면 다들 아는 척 하는데 별로 모름. 모르는 게 죄는 아닌데, 아는 척 하지 말기. 아는 척 하다 걸리면 탈락입니다.
- 강연자님의 커리어로드
- 오토에버 입사 13? 14년차? 라고 하심. 이전에는 ㅈ소에서 병역특례를 했다. 대학교 때 석사 특례를 받아 3년 간 ㅈ소에 있었는데 첫 연봉으로 2700 받았고, 거기서 처음으로 닷넷 개발을 했다.
- 거기가 ㅈ소긴 한데 개발은 되게 정석적으로 했다. 마소랑 파트너?같은 거 해서 직원들도 제대로 배우고 개발했다.
- 병역특례 끝나자마자 칼퇴직하고 오토에버에 지원했는데 바로 붙어서 입사했다.
- MES를 하고 싶어서 했냐?는 아님. 신입 공채로 들어왔는데, 업무나 팀을 고를 수가 없고 지역만 고를 수가 있었다. 서울/경기 지원했는데 아산 MES 운영 조직으로 보내졌다. 얘기 좀 들어보니까 서합 신입 리스트를 팀장들에게 배포했는데 팀장들이 맘에 드는 애를 골라서 데려갔다는 거임. 그렇게 아산에 가게 되었다~
- 그러다가 IoT 플랫폼 개발 조직에도 갔다오고 그랬다.
- 이게 제조라는 게 생산이라는 게 정말정말 보수적이다. 바꾸는 거 진짜 싫어한다. 아산에서 6년 정도 일했을 때 사내복지로 영어 교육을 좀 받았는데, 강사님이 너 개발자냐 묻더라. 맞다 했더니 너 깃허브 아냐 물었다는 거임. 2019년쯤에. 아니라 했더니 강사가 어떻게 개발자가 그걸 몰라 라고 했다 함. 깃허브 들어가봤더니 오픈소스가 있는 거임. 새로운 세계가 있는 거임. 그때 위기감을 느꼈다 함. 아산에 계속 박혀있다간 아무것도 모르는 화석이 되겠다 싶어서 본사 지원해서 새로운 기술 익히고 흘러흘러 지금 이 자리에 있다.