I want to encourage you to continue with this. We'll run into problems. They'll be frustrating. But, we know about them and it's so much better to study as a group. There's motivation as a collective that isn't always there by oneself.<div>
<br></div><div>Let me know how I can help... You know my only disclaimer where my boss's class comes first (and will probably suck out all of my free time for the semester). </div><div><br></div><div>Let's do it :)</div>
<div><br></div><div>Cheers,</div><div><br></div><div><br></div><div>Glen<br><br><div class="gmail_quote">On Fri, Aug 20, 2010 at 4:43 PM, Joe Hale <span dir="ltr"><<a href="mailto:joe@jjhale.com">joe@jjhale.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Hi,<br>
<br>
It seems like there is interest in forming a study group. We just need<br>
to figure out how to organise it now. Maybe we could talk about the<br>
best way to do this next wednesday. Glen makes some good points about<br>
difficulties we may encounter. There is a lot of material to get<br>
through and I appreciate that it needs to be fitted in around people's<br>
jobs and lives.<br>
<br>
I'd like to emphasise that there would not be anyone teaching the<br>
course beyond the professor in the videos. We'd just be working on the<br>
problem sets together and asking each other for clarification on<br>
points in the lectures. Hopefully newcomers could catch up by watching<br>
more lectures, and any questions they had would be useful revision for<br>
those who started earlier.<br>
<br>
I got an email from the maker of CoClass.com suggesting that his site<br>
could be useful for administrating the course.<br>
<br>
Have a good weekend,<br>
<font color="#888888"><br>
Joe<br>
</font><div><div></div><div class="h5"><br>
<br>
<br>
<br>
On 19 August 2010 16:39, Glen Jarvis <<a href="mailto:glen@glenjarvis.com">glen@glenjarvis.com</a>> wrote:<br>
> I'm obviously incredibly interested too. However, here are a few words of<br>
> caution:<br>
> * I have another course starting in a few weeks, taught by my boss, that I'm<br>
> required to take (and obviously need to do incredibly well on -- it has<br>
> priority and I'm already a very busy beaver),<br>
> * Although it may not be true for the ML group, I found when I taught a<br>
> Linux Certification Course at Noisebridge people were interested (very<br>
> interested) for about two weeks. They weren't generally willing to put the<br>
> homework to get a better understanding for the next week. But, we had a new<br>
> starter every week who was very *very* eager and I didn't want to leave<br>
> behind.. So, we were constantly in the beginning mode and either loosing<br>
> people by progressing too far, or boring people catering to the new people.<br>
> Just a few thoughts in case we hadn't considered this yet..<br>
> Cheers,<br>
><br>
> Glen<br>
> On Thu, Aug 19, 2010 at 3:36 PM, Joe Hale <<a href="mailto:joe@jjhale.com">joe@jjhale.com</a>> wrote:<br>
>><br>
>> Hi,<br>
>><br>
>> I was wondering if anyone out there wanted to form a study group to<br>
>> work through the Stanford Machine learning course. The videos of the<br>
>> lectures are on iTunesU and all the handouts and problem sets are<br>
>> online.<br>
>><br>
>> The course consists of 20 lectures which are 1h 15m long each. I've<br>
>> pasted the syllabus at the end. It seems like it would provide a<br>
>> really solid foundation for future ML projects at Noisebridge for<br>
>> those interested in getting into ML but who maybe didn't get round to<br>
>> studying it at school.<br>
>><br>
>> I figure we'd watch lectures on our own time and get together to<br>
>> discuss them and the problem sets.<br>
>><br>
>> Let me know if you'd be interested.<br>
>><br>
>> - Joe Hale<br>
>><br>
>> :::The course details:::<br>
>><br>
>> Machine Learning CS229<br>
>> <a href="http://www.stanford.edu/class/cs229/" target="_blank">http://www.stanford.edu/class/cs229/</a><br>
>><br>
>> Course Description<br>
>><br>
>> This course provides a broad introduction to machine learning and<br>
>> statistical pattern recognition. Topics include: supervised learning<br>
>> (generative/discriminative learning, parametric/non-parametric<br>
>> learning, neural networks, support vector machines); unsupervised<br>
>> learning (clustering, dimensionality reduction, kernel methods);<br>
>> learning theory (bias/variance tradeoffs; VC theory; large margins);<br>
>> reinforcement learning and adaptive control. The course will also<br>
>> discuss recent applications of machine learning, such as to robotic<br>
>> control, data mining, autonomous navigation, bioinformatics, speech<br>
>> recognition, and text and web data processing.<br>
>><br>
>> Prerequisites<br>
>><br>
>> Students are expected to have the following background:<br>
>> Knowledge of basic computer science principles and skills, at a level<br>
>> sufficient to write a reasonably non-trivial computer program.<br>
>> Familiarity with the basic probability theory. (CS109 or Stat116 is<br>
>> sufficient but not necessary.)<br>
>> Familiarity with the basic linear algebra (any one of Math 51, Math<br>
>> 103, Math 113, or CS 205 would be much more than necessary.)<br>
>><br>
>> Course Materials<br>
>> There is no required text for this course. Notes will be posted<br>
>> periodically on the course web site. The following books are<br>
>> recommended as optional reading:<br>
>><br>
>> Syllabus<br>
>> Introduction (1 class)<br>
>> Basic concepts.<br>
>><br>
>> Supervised learning. (7 classes)<br>
>> Supervised learning setup. LMS.<br>
>> Logistic regression. Perceptron. Exponential family.<br>
>> Generative learning algorithms. Gaussian discriminant analysis. Naive<br>
>> Bayes.<br>
>> Support vector machines.<br>
>> Model selection and feature selection.<br>
>> Ensemble methods: Bagging, boosting, ECOC.<br>
>> Evaluating and debugging learning algorithms.<br>
>><br>
>> Learning theory. (3 classes)<br>
>> Bias/variance tradeoff. Union and Chernoff/Hoeffding bounds.<br>
>> VC dimension. Worst case (online) learning.<br>
>> Practical advice on how to use learning algorithms.<br>
>><br>
>> Unsupervised learning. (5 classes)<br>
>> Clustering. K-means.<br>
>> EM. Mixture of Gaussians.<br>
>> Factor analysis.<br>
>> PCA. MDS. pPCA.<br>
>> Independent components analysis (ICA).<br>
>><br>
>> Reinforcement learning and control. (4 classes)<br>
>> MDPs. Bellman equations.<br>
>> Value iteration and policy iteration.<br>
>> Linear quadratic regulation (LQR). LQG.<br>
>> Q-learning. Value function approximation.<br>
>> Policy search. Reinforce. POMDPs.<br>
>> _______________________________________________<br>
>> ml mailing list<br>
>> <a href="mailto:ml@lists.noisebridge.net">ml@lists.noisebridge.net</a><br>
>> <a href="https://www.noisebridge.net/mailman/listinfo/ml" target="_blank">https://www.noisebridge.net/mailman/listinfo/ml</a><br>
><br>
><br>
><br>
> --<br>
> Whatever you can do or imagine, begin it;<br>
> boldness has beauty, magic, and power in it.<br>
><br>
> -- Goethe<br>
><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Whatever you can do or imagine, begin it;<br>boldness has beauty, magic, and power in it.<br><br>-- Goethe <br>
</div>