So, we're still up for meeting this evening at 7:30 p.m....<div><br></div><div>Reminder to all: that's tonight...</div><div><br></div><div>So, we're discussing the Stanford Machine learning course recent thread?</div>
<div><br></div><div><br></div><div>Cheers,</div><div><br></div><div><br></div><div>Glen</div><div><br></div><div><div><div><div class="gmail_quote">On Fri, Aug 20, 2010 at 6:43 PM, Mike Schachter <span dir="ltr"><<a href="mailto:mike@mindmech.com">mike@mindmech.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Hey Joe,<br><br>I'm definitely up for something like this, but my schedule is a bit of<br>a mess for the next month or two. Why not come to next week's meetup<br>
on Wednesday @ 7:30pm and we can all talk about it? It sounds like<br>
a great idea!<br><font color="#888888"><br>  mike<br><br><br></font><div class="gmail_quote"><div class="im">On Thu, Aug 19, 2010 at 3:36 PM, Joe Hale <span dir="ltr"><<a href="mailto:joe@jjhale.com" target="_blank">joe@jjhale.com</a>></span> wrote:<br>
</div><div><div></div><div class="h5"><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204, 204, 204);padding-left:1ex">
Hi,<br>
<br>
I was wondering if anyone out there wanted to form a study group to<br>
work through the Stanford Machine learning course. The videos of the<br>
lectures are on iTunesU and all the handouts and problem sets are<br>
online.<br>
<br>
The course consists of 20 lectures which are 1h 15m long each. I've<br>
pasted the syllabus at the end. It seems like it would provide a<br>
really solid foundation for future ML projects at Noisebridge for<br>
those interested in getting into ML but who maybe didn't get round to<br>
studying it at school.<br>
<br>
I figure we'd watch lectures on our own time and get together to<br>
discuss them and the problem sets.<br>
<br>
Let me know if you'd be interested.<br>
<br>
- Joe Hale<br>
<br>
:::The course details:::<br>
<br>
Machine Learning CS229<br>
<a href="http://www.stanford.edu/class/cs229/" target="_blank">http://www.stanford.edu/class/cs229/</a><br>
<br>
Course Description<br>
<br>
This course provides a broad introduction to machine learning and<br>
statistical pattern recognition. Topics include: supervised learning<br>
(generative/discriminative learning, parametric/non-parametric<br>
learning, neural networks, support vector machines); unsupervised<br>
learning (clustering, dimensionality reduction, kernel methods);<br>
learning theory (bias/variance tradeoffs; VC theory; large margins);<br>
reinforcement learning and adaptive control. The course will also<br>
discuss recent applications of machine learning, such as to robotic<br>
control, data mining, autonomous navigation, bioinformatics, speech<br>
recognition, and text and web data processing.<br>
<br>
Prerequisites<br>
<br>
Students are expected to have the following background:<br>
Knowledge of basic computer science principles and skills, at a level<br>
sufficient to write a reasonably non-trivial computer program.<br>
Familiarity with the basic probability theory. (CS109 or Stat116 is<br>
sufficient but not necessary.)<br>
Familiarity with the basic linear algebra (any one of Math 51, Math<br>
103, Math 113, or CS 205 would be much more than necessary.)<br>
<br>
Course Materials<br>
There is no required text for this course. Notes will be posted<br>
periodically on the course web site. The following books are<br>
recommended as optional reading:<br>
<br>
Syllabus<br>
Introduction (1 class)<br>
Basic concepts.<br>
<br>
Supervised learning. (7 classes)<br>
Supervised learning setup. LMS.<br>
Logistic regression. Perceptron. Exponential family.<br>
Generative learning algorithms. Gaussian discriminant analysis. Naive Bayes.<br>
Support vector machines.<br>
Model selection and feature selection.<br>
Ensemble methods: Bagging, boosting, ECOC.<br>
Evaluating and debugging learning algorithms.<br>
<br>
Learning theory. (3 classes)<br>
Bias/variance tradeoff. Union and Chernoff/Hoeffding bounds.<br>
VC dimension. Worst case (online) learning.<br>
Practical advice on how to use learning algorithms.<br>
<br>
Unsupervised learning. (5 classes)<br>
Clustering. K-means.<br>
EM. Mixture of Gaussians.<br>
Factor analysis.<br>
PCA. MDS. pPCA.<br>
Independent components analysis (ICA).<br>
<br>
Reinforcement learning and control. (4 classes)<br>
MDPs. Bellman equations.<br>
Value iteration and policy iteration.<br>
Linear quadratic regulation (LQR). LQG.<br>
Q-learning. Value function approximation.<br>
Policy search. Reinforce. POMDPs.<br>
_______________________________________________<br>
ml mailing list<br>
<a href="mailto:ml@lists.noisebridge.net" target="_blank">ml@lists.noisebridge.net</a><br>
<a href="https://www.noisebridge.net/mailman/listinfo/ml" target="_blank">https://www.noisebridge.net/mailman/listinfo/ml</a><br>
</blockquote></div></div></div><br>
<br>_______________________________________________<br>
ml mailing list<br>
<a href="mailto:ml@lists.noisebridge.net">ml@lists.noisebridge.net</a><br>
<a href="https://www.noisebridge.net/mailman/listinfo/ml" target="_blank">https://www.noisebridge.net/mailman/listinfo/ml</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>Whatever you can do or imagine, begin it;<br>boldness has beauty, magic, and power in it.<br><br>-- Goethe <br>
</div></div></div>