Bài đăng

Đang hiển thị bài đăng từ Tháng 9, 2020

Note for CS231N: CNN for Visual Recognition

Note technique

  1. Convert numerical to categorical https://www.analyticsvidhya.com/blog/2015/11/easy-methods-deal-categorical-variables-predictive-modeling/ Basic - A categorical variable has too many levels. This pulls down the performance level of the model. - A categorical has levels that rarely occur. Many of these levels have minimal chance of making a real impact on model fit. - There is one level that always occurs. E.g:  most of the observations in the data set, there is only one level. Variables with such levels fail to make a positive impact on model performance due to very low variation. - If the categorical is masked, it's a difficult task to decipher its meaning. - We can't fit the categorical variables into a regression equation in their raw form.' We should iterate our modeling process with different techniques. Later, evaluate the model performance. Below are the methods: Convert to number - Label encoder For example, We have two features “age” (range: 0-80) and “city” (...

Review Machine Learning

First of all, I will review the theory of ML from machinelearningcoban.com to better understand the algorithm. It's important to give some examples and explain the business problem. Regression: 1. Linear regression 2. Logistic regression Classification: 1. Linear classification 2. SVM 3. Kernel SVM 4. Softmax Instance-based: 1. k-NN Clustering: 1. k-Means Artificial neural network: 1. Perceptron 2. Softmax regression 3. Multi-layer Perceptron 4. Back-Propagation Dimensionality: 1. PCA 2. LDA Ensemble: 1. Boosting 2. AdaBoost 3. Random forest Ở phần này mình cũng sẽ sử dụng tài liệu của mlcourse.ai để ôn tập. Một tài liệu nền tảng hơn nữa là khóa Learning from the data của đại học Caltech,   một phiển bản được diễn giải tốt hơn nữa là ở đây  https://www.csie.ntu.edu.tw/~htlin/talk/doc/mlbasic.bdml.handout.pdf 1. Linear regression 2. Logistic regression Logistic regression là trường hợp đặc biệt của linear classification. Model này add vào benefit of predicting a probability. V...

Review data structure & algorithm

  First: Cracking the coding interview 20/9 Chapter 1: The interview process - Analytical skills - Coding skills - Technical knowledge / Computer Science fundamentals - Experience - Culture fit / Communication skills Chapter 5: Behavioral questions - Go through each of the projects or components of your resume and ensure that you can talk about them in detail. Challenge -  Mistakes/Failures - Enjoyed - Leadership - Conflicts - What You'd do Differently Business problem - Analytics - How to implement Chapter 6: Big O Technique dynamic programming: memoization, tabulation. Chapter 7: Technical questions Listen -> Example -> Brute force -> Optimize (BUD: Bottlenecks, unnecessary work, duplicated work) -> Walk through -> Implement -> Test Listen: information -> input/output, optimal keyword. Brute force: space/time complexity and then dive into improvement. Optimize:   1. Look for any unused information. 2. Use a fresh example. 3. Make time/space tradeof...

Ethanol diary

Nhận thấy bản thân còn quá nhiều thiếu sót, chưa bao giờ thực sự tập trung làm tốt một mảng nào đó trong một khoảng thời gian dài. Đam mê vẫn còn chưa đủ để thúc đẩy bản thân học và nghiên cứu một cách liên tục, nghiêm túc với tương lai của mình nên hôm nay mình lập cái blog này để nhắc nhở bản thân mỗi ngày. Nghiêm khắc và không được để một lỗ nào xuất hiện trên cái diary này của mình. Mình bắt buộc phải khác đi trong 1 năm tới, nếu không thì cuộc đời không biết sẽ trôi dạt về đâu. Mình nhớ anh thaidn có nói một câu thế này trên blog của ảnh:"Thời điểm tốt để học gì đó là đại học, thời điểm tốt nhất là ngay bây giờ". Mình đọc được cũng phải 5 năm tính tới thời điểm này rồi và đang cảm thấy hối hận vì mình học chưa đủ và lan man quá nhiều vấn đề nhưng không thật sự đi tới 1 nửa cái đích của thứ gì, thứ gì cũng biết nhưng không hiểu rõ. Một buổi tối có quá nhiều suy nghĩ về cuộc đời, lấy cảm hứng từ blog này của 1 hacker tài năng, hi vọng 1 năm tới mình cũng sẽ khác đi nhiều. ...