- 다양한 주제에 대해 자유롭게 글을 작성하는 게시판입니다.
Date | 15/11/05 18:02:05수정됨 |
Name | Azurespace |
Subject | 엥? 딥러닝 그거 바보 아니냐? |
작성자가 본문을 삭제한 글입니다. 7
이 게시판에 등록된 Azurespace님의 최근 게시물
|
근데 뭐 의료분야는 환자가 악의적으로 자기 장기를 달리 배치할 수는 없으므로(...) 단순히 generalization problem이라고 볼 수 있죠. 이건 모델 만드는 놈들에게 옛다 카운터이그젬플! 던져주고 똑바로 못해?! 큰소리치면 고쳐지는 수준의 문제라고 볼 수 있는데요. 더군다나 전문지식을 갖춘 의사가 재확인을 하니까요. 언젠가는 쓸만한 수준으로 발전할 것이라 기대할 수 있는건데...
근데 그럴 수 없는, 일상에 적용되어야 할 네트워크를 속일 수 있다는 것은, 그리고 근본적으로 해결이 안 될 수도 있다는 것은 큰 문제가 아닐 수 없습니다. 학계에선 이거 어쩔지...
근데 그럴 수 없는, 일상에 적용되어야 할 네트워크를 속일 수 있다는 것은, 그리고 근본적으로 해결이 안 될 수도 있다는 것은 큰 문제가 아닐 수 없습니다. 학계에선 이거 어쩔지...
그럴 거라고 기대했지만 아닐 수도 있다는 의견이 계속 제시되고 있습니다. 이게 궁극적인 질문 두 가지에 대한 문제인데, \'영상 정보의 재현성이 엄밀하게 확립되는 프로토콜인가\', \'영상 이미지의 normal/abnormal에 대한 해석이 기계적 환원이 가능한가\'에서 진짜로 재평가의 시점이 온거죠. 실제로 하다보면 프로토콜대로 찍었지만 결과물은 좀 애매한 케이스도 많고, 오류난 영상이 찍히는 경우도 드물지 않습니다. 이 이미지가 제대로 찍힌 것인가 아닌가(=재촬영을 해야하는가/감안하고 해석할 수 있는가/이미지는 글렀지만 해석은 ... 더 보기
그럴 거라고 기대했지만 아닐 수도 있다는 의견이 계속 제시되고 있습니다. 이게 궁극적인 질문 두 가지에 대한 문제인데, \'영상 정보의 재현성이 엄밀하게 확립되는 프로토콜인가\', \'영상 이미지의 normal/abnormal에 대한 해석이 기계적 환원이 가능한가\'에서 진짜로 재평가의 시점이 온거죠. 실제로 하다보면 프로토콜대로 찍었지만 결과물은 좀 애매한 케이스도 많고, 오류난 영상이 찍히는 경우도 드물지 않습니다. 이 이미지가 제대로 찍힌 것인가 아닌가(=재촬영을 해야하는가/감안하고 해석할 수 있는가/이미지는 글렀지만 해석은 정상적인 방식대로 해도 되는가)가 사실 판독의 기본인데, 이 전제 자체를 피드백하기가 상당히... 애매합니다. 아직까지 controversy가 있는 얘기지만, 과연 영상의학과 전문의의 판독은 얼마나 재현성이 있는가 같은 부분도 사실 공격이 거세진 부분이 적잖이 있고...
그리고 이제 \'악의적\'인 공격은 없을지언정 크리티컬한 한계가 있습니다. 현재까지 알려진 모든 영상기법은 모두 노이즈를 포함하거든요. 그게 픽셀로 잡힙니다. 그리고 이 노이즈를 원천적으로 제거하는 방법이 없는데, 이 노이즈를 null 처리하는 방식에 있어서 \'전문가의 직관과 컨센서스\'보다 좋은 방식이 못 나오고 있는데, 그 직관과 컨센서스조차 결과물 재현의 엄밀성이 깨지다보니... 결국 학습할 때까지 골든 스탠더드로의 판정을 누군가 해줘야 하는데 이 부분에서 거의 인식론적인 공격까지 나오고 있습니다. 뭐 어차피 임상적으로 큰 줄기가 훼손되진 않으니까 이대로 가긴 갈텐데, 의학 자체가 가지는 과학적 엄밀성과 공학적 엄밀성의 약점이 CAD에서 그대로 드러나버려서... 아무튼 그 지점에서 \'기계가 인정하는 수준의 일반론\'의 확립 자체가 불가능한 것 아니냐는 의견이 조금씩 힘을 얻고 있습니다.
그리고 이제 \'악의적\'인 공격은 없을지언정 크리티컬한 한계가 있습니다. 현재까지 알려진 모든 영상기법은 모두 노이즈를 포함하거든요. 그게 픽셀로 잡힙니다. 그리고 이 노이즈를 원천적으로 제거하는 방법이 없는데, 이 노이즈를 null 처리하는 방식에 있어서 \'전문가의 직관과 컨센서스\'보다 좋은 방식이 못 나오고 있는데, 그 직관과 컨센서스조차 결과물 재현의 엄밀성이 깨지다보니... 결국 학습할 때까지 골든 스탠더드로의 판정을 누군가 해줘야 하는데 이 부분에서 거의 인식론적인 공격까지 나오고 있습니다. 뭐 어차피 임상적으로 큰 줄기가 훼손되진 않으니까 이대로 가긴 갈텐데, 의학 자체가 가지는 과학적 엄밀성과 공학적 엄밀성의 약점이 CAD에서 그대로 드러나버려서... 아무튼 그 지점에서 \'기계가 인정하는 수준의 일반론\'의 확립 자체가 불가능한 것 아니냐는 의견이 조금씩 힘을 얻고 있습니다.
그럴 수도 있는데, 이제 사실 흉부 방사선 처음 배울 때도 나오는 얘기인데 편의상 \'폐\'로 보고 \'폐\'로 기술하지만, 엄밀하게 보면 폐를 보는 것이 아니라 공기와 조직의 분포를 보는 것이죠. 나타나는 모든 음영을 이제 저 비례관계의 조절을 통해서 직관적으로 해석하는 것인데, 그 과정에서 사실 굉장히 많은 정보들이 임의 취사됩니다. 그 임의 취사의 과정을 한 방향으로 고정시키는 것이 결국 트레이닝이고... 반면에 컴퓨터에게 데이터를 먹이는 건 해석의 레벨이 좀 달라지는데, 기본적으로 픽셀의 값의 패턴을 뽑아내는 방식이 됩니다.... 더 보기
그럴 수도 있는데, 이제 사실 흉부 방사선 처음 배울 때도 나오는 얘기인데 편의상 \'폐\'로 보고 \'폐\'로 기술하지만, 엄밀하게 보면 폐를 보는 것이 아니라 공기와 조직의 분포를 보는 것이죠. 나타나는 모든 음영을 이제 저 비례관계의 조절을 통해서 직관적으로 해석하는 것인데, 그 과정에서 사실 굉장히 많은 정보들이 임의 취사됩니다. 그 임의 취사의 과정을 한 방향으로 고정시키는 것이 결국 트레이닝이고... 반면에 컴퓨터에게 데이터를 먹이는 건 해석의 레벨이 좀 달라지는데, 기본적으로 픽셀의 값의 패턴을 뽑아내는 방식이 됩니다. 이게 gross하게 가면 결국 사람하고 차이가 없는 방식이 되지만 정보 입력의 초기 단계에서는 사람과 컴퓨터의 차이를 극단적으로 벌려버리는데, 여기에서 표준화에 실패하면 다음 단계로 넘어갈 수가 없어집니다. 그리고 이 과정에서 사람은 임의의 outline을 잡아서 안팎의 정보에 대해 임의의 가중치를 적용하는데 이 부분이 구조화될 수 없습니다 지금의 공학 수준에서는. 그러다보니 데이터를 먹이고 결과 판정을 해주고... 하는 알고리듬 자체에 대한 회의가 도출되는 것이죠. 결국 이제 \'지금 하는 방법론을 계속 쌓아가면서 될 것인가\' 아니면 \'혁명적인 새로운 패러다임을 제시해야 하는가\'의 싸움의 연장선이에요.
계속 진행해야 하느냐에서도 딴지가 걸리고(연구비 싸움이 일단...), 사실 지금 몇 몇 영상 분석 프로그램은 상용화가 되어있습니다. 이게 일반적으로 받아들여지는 것은 아니고 특정 병원/대학이 주도해서 개발한 후에 자기들이 좋다고 결과물을 내고 \'너네도 써봐\' 하면서 팔고 있는데 그 싸움도 좀 영향이 있고... 그리고 이쪽에 한해서는 좀 새로운 알고리듬을 주장하는 사람들도 있습니다. 데이터 구조화 방식을 좀 다르게 해서 먹이는 건데 이건 어떤 영상을 대상으로 하냐에 따라 완전히 다른 얘기라서 저도 이해를 잘 못하고 싸우는 것만 보... 더 보기
계속 진행해야 하느냐에서도 딴지가 걸리고(연구비 싸움이 일단...), 사실 지금 몇 몇 영상 분석 프로그램은 상용화가 되어있습니다. 이게 일반적으로 받아들여지는 것은 아니고 특정 병원/대학이 주도해서 개발한 후에 자기들이 좋다고 결과물을 내고 \'너네도 써봐\' 하면서 팔고 있는데 그 싸움도 좀 영향이 있고... 그리고 이쪽에 한해서는 좀 새로운 알고리듬을 주장하는 사람들도 있습니다. 데이터 구조화 방식을 좀 다르게 해서 먹이는 건데 이건 어떤 영상을 대상으로 하냐에 따라 완전히 다른 얘기라서 저도 이해를 잘 못하고 싸우는 것만 보고 있고(..) 그 외에도 이제, 의료 영상의 대부분이 사실 우열 관계는 있을지언정 특정 상황에 대한 독점이 안됩니다. 예컨대 뇌 CT를 컴퓨터로 돌리는 걸 누가 연구하겠다, 라고 하면 어차피 MRI가 더 좋은데 왜 제한적인 CT를 대상으로 하느냐는 시비가 걸리고, 또 누구는 CT 프로토콜이 영향을 줄 수 있는데 어떻게 표준화하느냐로 시비걸고, 누구는 그 데이터를 기반으로 영상 재구성해서 다른 영상 데이터랑 결합했을 때에, 재구성하지 않은 원본과 다른 영상 데이터를 결합한 것과 같은 결과가 나올 수 있겠느냐로 시비걸고... \'임상 적용의 요구치\'는 높은데 \'실제 분석 대상이 되는 기술과 기술 체계의 합리성\'은 구멍이 있고 그러다보니 이러한 새로운 해석 장치 그 자체의 도입이 역으로 학문과 연구 전체의 합의를 기초부터 다시 잡아야 하는게 아니냐는 필요성을 대두시키고 있습니다. 그러다보니 첫 줄의 결론으로 귀결되죠. \'돈내놔!\'
다른 분야에서도 그런 식으로 초기 데이터의 Normalization 방법에 대해 문제가 있다거나, Boundary가 애매한 경우들이 있는데요. 사실 대부분의 경우에 답은 하납니다.
... 딥 러닝 자체도 새로운 방법론이 혜성같이 등장한 게 아니라, 엄청난 양의 데이터를 처리할 수 있게 되면서야 시도할 수 있게 된 거니까요. 그 이전에 인공신경망이 여러 방면에서 공격받았던 것들도 레지엔님이 말씀하셨던 그런 이유들 때문이었습니다. 노이즈에 취약하다던지 케이스에 따라서 일관적이지 않은 결과가 나온다던지.. 이게 다 신경망의 복잡도... 더 보기
... 딥 러닝 자체도 새로운 방법론이 혜성같이 등장한 게 아니라, 엄청난 양의 데이터를 처리할 수 있게 되면서야 시도할 수 있게 된 거니까요. 그 이전에 인공신경망이 여러 방면에서 공격받았던 것들도 레지엔님이 말씀하셨던 그런 이유들 때문이었습니다. 노이즈에 취약하다던지 케이스에 따라서 일관적이지 않은 결과가 나온다던지.. 이게 다 신경망의 복잡도... 더 보기
다른 분야에서도 그런 식으로 초기 데이터의 Normalization 방법에 대해 문제가 있다거나, Boundary가 애매한 경우들이 있는데요. 사실 대부분의 경우에 답은 하납니다.
... 딥 러닝 자체도 새로운 방법론이 혜성같이 등장한 게 아니라, 엄청난 양의 데이터를 처리할 수 있게 되면서야 시도할 수 있게 된 거니까요. 그 이전에 인공신경망이 여러 방면에서 공격받았던 것들도 레지엔님이 말씀하셨던 그런 이유들 때문이었습니다. 노이즈에 취약하다던지 케이스에 따라서 일관적이지 않은 결과가 나온다던지.. 이게 다 신경망의 복잡도에 비해 데이터가 부족하거나, 데이터의 복잡성에 비해 신경망의 뉴런이 부족하거나 하는 것 때문이었던 거죠.
그래서 그 하나의 답이 뭐냐면..
더 많은 돈과 더 많은 데이터.... 입니다... OTL
... 딥 러닝 자체도 새로운 방법론이 혜성같이 등장한 게 아니라, 엄청난 양의 데이터를 처리할 수 있게 되면서야 시도할 수 있게 된 거니까요. 그 이전에 인공신경망이 여러 방면에서 공격받았던 것들도 레지엔님이 말씀하셨던 그런 이유들 때문이었습니다. 노이즈에 취약하다던지 케이스에 따라서 일관적이지 않은 결과가 나온다던지.. 이게 다 신경망의 복잡도에 비해 데이터가 부족하거나, 데이터의 복잡성에 비해 신경망의 뉴런이 부족하거나 하는 것 때문이었던 거죠.
그래서 그 하나의 답이 뭐냐면..
더 많은 돈과 더 많은 데이터.... 입니다... OTL
대학원 코스웤에서 겉핥기 나마 배우고있는데, 내부 layer 들에서 일어나는 일들이 수학적(정확히말하면해석적)으로 표현되긴하나, 이 input 에 대한 output 이 어떻게해서 나오는지 그 과정에 대한 해석은 무시된 상황 아닌가요?
총의 방아쇠를 당기면 총알이 발사 된다는 사실은 아나, 그게 어떠한 원리로 총알이 나가는지 모르는 상태랑 비슷하다는게 제 소감이거든요.
첫번째처럼 그림이 사람이 봤을땐 똑같지만, 기계가 봤을 때 다른 결과가 나온다는 현상이 얘기될 뿐 그에대한 원인+해결방안이 어떻게되는지에 대하여는 제가 배웠던 내용을 바탕으로는 도저히 추론이 안되네요.
총의 방아쇠를 당기면 총알이 발사 된다는 사실은 아나, 그게 어떠한 원리로 총알이 나가는지 모르는 상태랑 비슷하다는게 제 소감이거든요.
첫번째처럼 그림이 사람이 봤을땐 똑같지만, 기계가 봤을 때 다른 결과가 나온다는 현상이 얘기될 뿐 그에대한 원인+해결방안이 어떻게되는지에 대하여는 제가 배웠던 내용을 바탕으로는 도저히 추론이 안되네요.
구글 딥마인드의 저프리 힌턴 교수가 얼마 전에 레딧에서 AMA를 진행했었는데, 거기에서도 비슷한 질문이 있었던 기억이 나네요. 관심이 있으시다면 읽어보시기 바랍니다.
https://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton/
당장 성과를 내야 펀딩이 따라오는 이공계 특성상 일단 결과가 잘 나오게 하는... 더 보기
https://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton/
당장 성과를 내야 펀딩이 따라오는 이공계 특성상 일단 결과가 잘 나오게 하는... 더 보기
구글 딥마인드의 저프리 힌턴 교수가 얼마 전에 레딧에서 AMA를 진행했었는데, 거기에서도 비슷한 질문이 있었던 기억이 나네요. 관심이 있으시다면 읽어보시기 바랍니다.
https://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton/
당장 성과를 내야 펀딩이 따라오는 이공계 특성상 일단 결과가 잘 나오게 하는 방법을 연구하는 사람이 많은 것은 사실입니다만, 중간 과정에 대한 고찰이 없다는 말씀은 지나친 비약입니다. 그 비밀을 밝혀내기 위해 연구하는 사람들도 있고, 힌턴도 그 중 한 명입니다.
그리고 ConvNet의 경우는 시각화를 통해서 어떤 식으로 feature들이 분리되고 통합되는지 역추적이 가능합니다. 보다 보면 인공신경망이 어떤 식으로 사물을 추정해내는지 어느 정도 이해한 것 같은 느낌(...)이 듭니다. Deep Visualization을 검색해보시면 동영상이 몇 개 나올 겁니다.
다만 인공신경망에 사용되는 뉴런은 실제 생명체에서 발견되는 뉴런과는 아주 다른 물건이기 때문에 인공신경망의 동작을 완전히 이해한다 하더라도, 그것이 과연 인간의 인지능력에 대한 결정적인 단서를 제공할 수 있을지는 저 개인적으로도 궁금합니다. (계산능력은 동등하다고 합니다만 어쨌든 동작방식이 다른 건 사실이니까요)
https://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton/
당장 성과를 내야 펀딩이 따라오는 이공계 특성상 일단 결과가 잘 나오게 하는 방법을 연구하는 사람이 많은 것은 사실입니다만, 중간 과정에 대한 고찰이 없다는 말씀은 지나친 비약입니다. 그 비밀을 밝혀내기 위해 연구하는 사람들도 있고, 힌턴도 그 중 한 명입니다.
그리고 ConvNet의 경우는 시각화를 통해서 어떤 식으로 feature들이 분리되고 통합되는지 역추적이 가능합니다. 보다 보면 인공신경망이 어떤 식으로 사물을 추정해내는지 어느 정도 이해한 것 같은 느낌(...)이 듭니다. Deep Visualization을 검색해보시면 동영상이 몇 개 나올 겁니다.
다만 인공신경망에 사용되는 뉴런은 실제 생명체에서 발견되는 뉴런과는 아주 다른 물건이기 때문에 인공신경망의 동작을 완전히 이해한다 하더라도, 그것이 과연 인간의 인지능력에 대한 결정적인 단서를 제공할 수 있을지는 저 개인적으로도 궁금합니다. (계산능력은 동등하다고 합니다만 어쨌든 동작방식이 다른 건 사실이니까요)
아... Hinton 이분 coursera 에 Neural Networks for Machine Learning( https://www.coursera.org/course/neuralnets ) 의 그분이군요. 이분 덕분에 인공신경망에 대해 잘(?)배우고있습니다. 중간에 대한 고찰을 못본건 수업이여서 그랬던걸로...
상황에 맞는 reddit 글/동영상들 추천해주셔서 감사합니다. 나중에 살펴보도록 하겠습니다!
상황에 맞는 reddit 글/동영상들 추천해주셔서 감사합니다. 나중에 살펴보도록 하겠습니다!
잘 보고 갑니다. 작년까지 비전으로 머신러닝 하다가 올해와서야 드디어 생산공정의 빅 데이터로 머신러닝 하고 있는 입장이라 참 재미있어요.
1차 산업에 가까운(?) 곳이라 컴퓨터와 가까운 사람들이 우리 팀 외에는 별로 없다는 것이 장점이기도 하고 단점이기도 한 상황이네요.
올려주시는 글 늘 잘보고 있습니다. 회사 세미나때 이런 것도 있더라 하면서 딥러닝을 세미나시간을 통해 소개 좀 할까 하다가도
그 나이드신 양반들이 과연.... 얼마나 알아먹을까 싶은 생각에 말아버리곤 했어요.
실제로 압연기(여기서 제 직장의 업이 조금 ... 더 보기
1차 산업에 가까운(?) 곳이라 컴퓨터와 가까운 사람들이 우리 팀 외에는 별로 없다는 것이 장점이기도 하고 단점이기도 한 상황이네요.
올려주시는 글 늘 잘보고 있습니다. 회사 세미나때 이런 것도 있더라 하면서 딥러닝을 세미나시간을 통해 소개 좀 할까 하다가도
그 나이드신 양반들이 과연.... 얼마나 알아먹을까 싶은 생각에 말아버리곤 했어요.
실제로 압연기(여기서 제 직장의 업이 조금 ... 더 보기
잘 보고 갑니다. 작년까지 비전으로 머신러닝 하다가 올해와서야 드디어 생산공정의 빅 데이터로 머신러닝 하고 있는 입장이라 참 재미있어요.
1차 산업에 가까운(?) 곳이라 컴퓨터와 가까운 사람들이 우리 팀 외에는 별로 없다는 것이 장점이기도 하고 단점이기도 한 상황이네요.
올려주시는 글 늘 잘보고 있습니다. 회사 세미나때 이런 것도 있더라 하면서 딥러닝을 세미나시간을 통해 소개 좀 할까 하다가도
그 나이드신 양반들이 과연.... 얼마나 알아먹을까 싶은 생각에 말아버리곤 했어요.
실제로 압연기(여기서 제 직장의 업이 조금 드러날 것 같지만) 하나만 해도 워낙 많은 인자들이 들어가기에 무려 Neural Network를 활용해서 제어를 합니다.
(담당이 아니라 실제로 쓰는지는 모르겠지만, 무려 ANN 구현부 헤더에 SIEMENS라고 적힌 것 보면 상관이 영 없진 않은 것 같고요, 참고로 지멘스는 압연기 SW 만든 곳입니다)
얼마전에 아는 사람이 GA(Genetic Algorithm)을 가지고 과제도 하나 너끈히 해결하고 논문도 쓰고 하는 것 보면 참 기술 발전이 새롭다는 생각이 듭니다.
자극도 되고요. 지금은 R이라는 좋은 툴이 있어서 공부중 입니다. 이거 생각보다 좋더라구요~
여태 C/C++로 된 소스를 찾아 해매이다가 R로써 많은 고민들이 해결됐어요.
1차 산업에 가까운(?) 곳이라 컴퓨터와 가까운 사람들이 우리 팀 외에는 별로 없다는 것이 장점이기도 하고 단점이기도 한 상황이네요.
올려주시는 글 늘 잘보고 있습니다. 회사 세미나때 이런 것도 있더라 하면서 딥러닝을 세미나시간을 통해 소개 좀 할까 하다가도
그 나이드신 양반들이 과연.... 얼마나 알아먹을까 싶은 생각에 말아버리곤 했어요.
실제로 압연기(여기서 제 직장의 업이 조금 드러날 것 같지만) 하나만 해도 워낙 많은 인자들이 들어가기에 무려 Neural Network를 활용해서 제어를 합니다.
(담당이 아니라 실제로 쓰는지는 모르겠지만, 무려 ANN 구현부 헤더에 SIEMENS라고 적힌 것 보면 상관이 영 없진 않은 것 같고요, 참고로 지멘스는 압연기 SW 만든 곳입니다)
얼마전에 아는 사람이 GA(Genetic Algorithm)을 가지고 과제도 하나 너끈히 해결하고 논문도 쓰고 하는 것 보면 참 기술 발전이 새롭다는 생각이 듭니다.
자극도 되고요. 지금은 R이라는 좋은 툴이 있어서 공부중 입니다. 이거 생각보다 좋더라구요~
여태 C/C++로 된 소스를 찾아 해매이다가 R로써 많은 고민들이 해결됐어요.
R이 핫하긴 합니다.
아직은 스크립트 언어고(무시하는 건 아닙니다만) 다른 언어들과의 연계성도 좀 부족하고 무엇보다 스탠드얼론으로 동작하는 애플리케이션 만들기가 조금 까다롭네요.
C#과는 잘 연결됩니다. 간단히 말하자면 매트랩 느낌이 좀 납니다.
딥러닝을 위시한 첨단(?) 알고리즘은 음.. 업무에 적용하기엔 장벽이 있는 것 같아요. (어려워서...)
공부해보면서 느낀건데 알고리즘 자체에 대한 지식도 중요하고 해당 업무나 데이터의 성격에 맞는 알고리즘이 무엇인가를 찾는 것도 중요한 것 같아요.
그래서 알고리즘 소개에 대... 더 보기
아직은 스크립트 언어고(무시하는 건 아닙니다만) 다른 언어들과의 연계성도 좀 부족하고 무엇보다 스탠드얼론으로 동작하는 애플리케이션 만들기가 조금 까다롭네요.
C#과는 잘 연결됩니다. 간단히 말하자면 매트랩 느낌이 좀 납니다.
딥러닝을 위시한 첨단(?) 알고리즘은 음.. 업무에 적용하기엔 장벽이 있는 것 같아요. (어려워서...)
공부해보면서 느낀건데 알고리즘 자체에 대한 지식도 중요하고 해당 업무나 데이터의 성격에 맞는 알고리즘이 무엇인가를 찾는 것도 중요한 것 같아요.
그래서 알고리즘 소개에 대... 더 보기
R이 핫하긴 합니다.
아직은 스크립트 언어고(무시하는 건 아닙니다만) 다른 언어들과의 연계성도 좀 부족하고 무엇보다 스탠드얼론으로 동작하는 애플리케이션 만들기가 조금 까다롭네요.
C#과는 잘 연결됩니다. 간단히 말하자면 매트랩 느낌이 좀 납니다.
딥러닝을 위시한 첨단(?) 알고리즘은 음.. 업무에 적용하기엔 장벽이 있는 것 같아요. (어려워서...)
공부해보면서 느낀건데 알고리즘 자체에 대한 지식도 중요하고 해당 업무나 데이터의 성격에 맞는 알고리즘이 무엇인가를 찾는 것도 중요한 것 같아요.
그래서 알고리즘 소개에 대한 글을 보면 이리저리 짱구 굴려가며 더 고민하게 되네요
아직은 학생의 마음(?)으로 공부해보려고 합니당
아직은 스크립트 언어고(무시하는 건 아닙니다만) 다른 언어들과의 연계성도 좀 부족하고 무엇보다 스탠드얼론으로 동작하는 애플리케이션 만들기가 조금 까다롭네요.
C#과는 잘 연결됩니다. 간단히 말하자면 매트랩 느낌이 좀 납니다.
딥러닝을 위시한 첨단(?) 알고리즘은 음.. 업무에 적용하기엔 장벽이 있는 것 같아요. (어려워서...)
공부해보면서 느낀건데 알고리즘 자체에 대한 지식도 중요하고 해당 업무나 데이터의 성격에 맞는 알고리즘이 무엇인가를 찾는 것도 중요한 것 같아요.
그래서 알고리즘 소개에 대한 글을 보면 이리저리 짱구 굴려가며 더 고민하게 되네요
아직은 학생의 마음(?)으로 공부해보려고 합니당
100에 가까워지려는 99.9999999......를 잡으러가는 대장정 떠나는 느낌.
물론 아직 99도, 90도 아니고 1~2 정도 같지만요.
물론 아직 99도, 90도 아니고 1~2 정도 같지만요.
목록 |
|