2020년 3월 25일 수요일
갤럭시 S20 마이필터 연구 스토리 (My Filters)
2020년 3월 24일 화요일
머신러닝 논문을 쓰면서 논문 글쓰기에 관한 고찰
창작은 상당한 두뇌활동과 그에 따른 고통을 수반한다. 내 논리를 수식에 정확히 담아내야 하며, 머릿속에 있을땐 미처 깨닫지 못한 논리의 공백을 매꿀 논리의 수식을 생각해야 한다. 이 과정은 답을 맞춰가는 과정과는 매우 다르다. 내 이론과 가설을 입증할 방법을 찾아가는것이다. 정답이라는걸 정의할 수 없는 영역에서 써내려가는 글이 논문이다.
zero base에서 논문을 쓰기 시작하는건 창작의 고통을 고스란히 느끼기 딱 좋다. 대학교 인문학 수업을 들을 때면 꼭 중간/기말 보고서에 시달렸다. 한두장 분량임에도 불구하고 책상앞에 앉아서 뭔가 써보고자 키보드에 손을 얹으면 몰려오는 그 막막함에 키보드에 올려진 손을 떼서 다시 마우스를 잡고는 했다. 하지만 그 때 당시에 신기했던건 막상 한 문장이라도 쓰면 자연스레 한 문단이 완성되고 줄줄 써지더라는 것이다. 마치 지금 뻘글을 써 내려가는 나 자신처럼 말이다. 하지만 안타깝게도 그건 인문학/교양수업에 한정된 얘기였다. 그 말은 즉 나 자신은 이미 쓸 내용을 알고 있지만 단지 귀찮아서 도피했을 뿐이라는 뜻이다.
이게 새로운 연구 성과와 연구 이론을 펼쳐야 하는 논문 글쓰기에 들어서면 다른 이야기가 된다. 없던 논리를 만들어야 하므로 논리와 글쓰기와 사상검증이 동시에 이루어지면서 글이 써져야 한다. 이 때 중요한건 내가 제시하는 방법이 얼마나 그럴싸하게 썰이 풀어져나가며 포장되느냐이다. 그냥 핵심만 쓰고싶지만 그러면 아마도 아무리 훌륭한 이론이라도 망하고 말 것이다. Deep Image Prior같은 논문을 방법만 설명하고 썰을 풀지 않았다고 상상해보자. accept근처조차 못 갔을 것이다. 그래서 보통은 자기가 하던 연구를 계속 하면서 곳곳의 문장을 조금씩 바꿔서 재활용하고는 한다. 그것마저 통하지 않는 경우가 zero base에서 써내려가는 논문이다.
multi-task learning분야에서 논문을 쓰기 시작했다. 작년에 내가 발명한 방법론이지만 이제서야 쓰기 시작했다. 제목부터 고민이다. 최대한 이목을 끌도록 간결하고 깔쌈하게.
2020년 3월 22일 일요일
Paper Review: Blind Image Quality Assessment Based on High Order Statistics Aggregation (논문 리뷰)
It is known that the contrast normalization by blocks of the image is useful for constructing codebooks in the BIQA domain.
This paper represents how to construct codebooks using high order statistics. The basic feature set is obtained by the contrast normalization. Then, using the features from the CSIQ database, by adopting K-means clustering, we can retain codebooks with 100 centers. In the run-time, the method proposes high order features; mean, variance, and skewness. The input features are used to get distances to K clusters, and distances are the mean, variance, and skewness distances. Then the method performs regression over three distances.
In addition to state-of-the-art performance, one of the two biggest advantages of the proposed method is that it generalizes very well. It is quite common that the deep-learning-based method in IQA shows poor generalization performance. Unlike others, the proposed method is trained on one dataset and works very well on the other datasets.
The other one is that it is very fast compared to other methods. It is not common that BIQA performs within 1 second using CPU to process 512by512 input, but the proposed method performs in 0.35second, which is extremely fast.
In conclusion, HOSA is one of the best methods in terms of speed and cross-domain performance in the BIQA domain.
2020년 3월 17일 화요일
Galaxy S20 "My Filters", "마이필터"
(This method is protected by Patent)