Agosto-Diciembre 2025
Instructor: Denis Parra, Profesor Asociado PUC Chile, Ph.D. University of Pittsburgh
Ayudantes:
- Alejandro Plaza, Estudiante de Magíster, Ciencia de la Computación PUC Chile ([email protected]).
- Juan Manuel Hernandez, Estudiante de Magíster, Ciencia de la Computación PUC Chile ([email protected]).
- Javiera Azócar, Estudiante de Pregrado, Ciencia de la Computación PUC Chile ([email protected]).
- Pedro Palma, Estudiante de Magíster, Ciencia de la Computación PUC Chile ([email protected])
- Nicolás Estévez, Estudiante de Magíster, Ciencia de la Computación PUC Chile ([email protected])
Institución: Pontificia Universidad Católica de Chile
Horario cátedra: Martes y Jueves, Módulo 3 (11:00 a 12:10). Sala B24.
Horario ayudantía: Lunes, Módulo 5 (14:50 a 16:00). Sala B18.
Sitio web lecturas: Perusall
Programa IIC3633, 2do Semestre 2025: pdf
- (23/10) Se deja completo la calendarización y material de los seminarios en el README de la carpeta seminarios/
- (09/09) Se publica el enunciado del Proyecto de Curso, el cual se encuentra disponible en el siguiente enlace
- (21/08) La lista de grupos para la Tarea 1 se encuentra disponible en el siguiente enlace, donde los alumnos sin acceso a Canvas pueden inscribirse directamente.
- (12/08) Se encuentra subida la Tarea 1 en el siguiente enlace.
- (14/08) Se habilitó un foro en Canvas para realizar consultas de la Tarea 1.
- (14/08) Se actualiza enunciado de la Tarea 1 para resolver inconsistencias.
El curso de Sistemas Recomendadores cubre las principales tareas de recomendación, algoritmos, fuentes de datos y evaluación de estos sistemas. Al final de este curso serás capaz de decidir qué técnicas y fuentes de datos usar para implementar y evaluar sistemas recomendadores.
Software: Suprise, Implicit y pyRecLab.
Coursera
Los contenidos de las semanas 1, 2 y 4 los puedes revisar a tu ritmo en este curso de 4 módulos de Coursera llamado Fundamentos de Sistemas de recomendación
| Semana | Tema | link slide(s) |
|---|---|---|
| 1 | PPT Evaluaciones | slides |
| 1 | Ranking no personalizado y Filtrado colaborativo (FC) | slides |
| 1 | Item-based FC | slides |
| 2 | Factorización Matricial: FunkSVD | slides (apunte FunkSVD) |
| 2 | Implicit Feedback CF, WMF(ALS) | slides |
| 3 | Bayesian Personalized Ranking (BPR) | slides |
| 3 | Evaluación: metricas de error y ranking | slides |
| 3 | Evaluación II: Cobertura, diversidad, novedad | slides |
| 3 | Evaluación III: Tests estadísticos | slides |
| 4 | Recomendación basada en contenido 1 | slides |
| 5 | Recomendación basada en contenido 2 | slides |
| 5 | Recomendación híbrida | slides |
| 5 | Recomendación por ensambles | slides |
| 6 | Recomendación basada en contexto | slides |
| 6 | Máquinas de Factorización | slides |
| 6 | Ideas de proyecto final (2025) | slides / enunciado |
| 7 | SEMANA DE RECESO | Escuchar Radiohead o Pink Floyd(?!) |
| 8 | Deep Learning I: Intro | slides |
| 8 | Deep Learning II: Recomendación secuencial | slides |
| 9 | Bandidos multibrazos | slides |
| 10 | Aprendizaje Reforzado Intro | slides |
| 10 | Aprendizaje Reforzado for RecSys I | slides |
| 10 | Aprendizaje Reforzado for RecSys II | slides |
| 11 | GNNs para SR | slides |
| 11 | Sistemas Justos, Explicables y Transparentes | slides |
| 12 | 10 problemas en Sistemas de Recomendación | slides |
Este curso adscribe el Código de Honor establecido por la Escuela de Ingeniería el que es vinculante. Todo trabajo evaluado en este curso debe ser propio. En caso de que exista colaboración permitida con otros estudiantes, el trabajo deberá referenciar y atribuir correctamente dicha contribución a quien corresponda. Como estudiante es su deber conocer la versión en línea del Código de Honor.
IMPORTANTE: En este curso se permite el uso de modelos de lenguaje (ChatGPT, Gemini, Claude, etc) como apoyo en el desarrollo de las evaluaciones del curso, siempre y cuando no reemplaze el trabajo por parte de cada estudiante. En caso de usar alguna inteligencia artificial en el desarrollo de sus evaluaciones, se deberá citar dicho uso y compartir el enlace a la conversación (o conversaciones) con las IAs correspondientes en la entrega de la evaluación correspondiente.
Detalles de las evaluaciones en esta presentacion
Prácticos (10%)
Habrá una actividad práctica relacionada a cada ayudantía, la cual consistirá en un desafío de código que deberá ser entregado por Canvas el viernes de la semana correspondiente a las 20:00. El promedio de los prácticos tendrá una ponderación del 10% en la nota final del curso.
Tarea 1 (20%)
Se realizará una tarea que constará de dos partes:
- Interrogación métricas (30%): Se realizará un práctico en clases (martes 26 de agosto) acerca de métricas y se entregará a final de la clase. La inasistencia no justificada equivaldrá a un 1.0.
- Tarea (70%): Deberán implementar mecanismos de recomendación para predecir ratings y para rankear items en un dataset entregado por el cuerpo docente.
Lecturas Semanales (5%)
Cada alumno debe crear una cuenta en el sitio Perusall con su correo UC (codigo de curso PARRA-2AV7Y). Cada semana deberá escribir 5 comentarios propios y 2 comentarios respondiendo a sus compañeros en los módulos de las lecturas marcadas como obligatorias.
Para descargar los archivos se sugiere buscarlos en Scholar o a través de EZProxy.
Fecha de revisión de comentarios de lecturas: El post de la semana x, tiene fecha de entrega el lunes a las 20:00 de la semana x + 1. Ejemplo: Los comentarios de las lecturas de la semana 1 (clase del 5 de agosto) se entregan a más tardar el lunes 11 de agosto a las 20:00.
Seminario (25%)
En la segunda mitad del semestre, los estudiantes formarán grupos para leer un artículo y realizar una presentación acerca de este frente al resto del curso. Las presentaciones se realizarán entre las clases del 21 de octubre y 20 de noviembre. Los artículos a presentar se publicarán el martes 23 de septiembre. Todo el material se encuentra publicado en el README en la carpeta seminarios/.
Proyecto Final (40%)
A inicios de octubre, las(los) estudiantes enviarán una idea de proyecto final, la cual desarrollarán durante octubre, noviembre e inicios de diciembre. Enviarán un informe de avance a fines de octubre, para hacer una presentación de su proyecto al final del curso en una sesión de posters, además de un informe formato paper.
IMPORTANTE: Todas las entregas del curso son a las 20:00 del día de entrega correspondiente.
Obligatorias
- Kluver, D., Ekstrand, M. D., & Konstan, J. A. (2018). Rating-based collaborative filtering: algorithms and evaluation. Social information access: Systems and technologies, 344-390. pdf secciones (1-6)
Sugeridas
- Schafer, J. B., Frankowski, D., Herlocker, J., & Sen, S. (2007). Collaborative filtering recommender systems. In The adaptive web (pp. 291-324). Springer Berlin Heidelberg.
- Sarwar, B., Karypis, G., Konstan, J., & Riedl, J. (2001). Item-based collaborative filtering recommendation algorithms. In Proceedings of the 10th international conference on World Wide Web (pp. 285-295).
- Post original FunkSVD
- Lemire, D., & Maclachlan, A. (2005). Slope One Predictors for Online Rating-Based Collaborative Filtering. In SDM (Vol. 5, pp. 1-5).
Obligatorias
- Kluver, D., Ekstrand, M. D., & Konstan, J. A. (2018). Rating-based collaborative filtering: algorithms and evaluation. Social information access: Systems and technologies, 344-390. pdf secciones (7-9)
Sugeridas
-
Hu, Y., Koren, Y., & Volinsky, C. (2008). Collaborative filtering for implicit feedback datasets. In Data Mining, 2008. ICDM’08. Eighth IEEE International Conference on (pp. 263-272). IEEE.
-
Takács, G., Pilászy, I., Németh, B., & Tikk, D. (2009). Scalable collaborative filtering approaches for large recommender systems. Journal of machine learning research, 10(Mar), 623-656.
-
Rendle, S., Freudenthaler, C., Gantner, Z., & Schmidt-Thieme, L. (2009). BPR: Bayesian personalized ranking from implicit feedback. In Proceedings of the Twenty-Fifth Conference on Uncertainty in Artificial Intelligence (pp. 452-461). AUAI Press.
-
Koren, Y., Bell, R., & Volinsky, C. (2009). Matrix factorization techniques for recommender systems. Computer, 42(8), 30-37.
-
Pan, R., Zhou, Y., Cao, B., Liu, N. N., Lukose, R., Scholz, M., & Yang, Q. (2008). One-class collaborative filtering. In 2008 Eighth IEEE International Conference on Data Mining (pp. 502-511). IEEE. En este artículo aparecen la derivación y reglas de actualización de los parámetros así como las nociones de AMAN y AMAU.
-
Jannach, D., Lerche, L., & Zanker, M. (2018). Recommending based on implicit feedback. In Social Information Access (pp. 510-569). Springer, Cham.
-
Srebro, N., & Jaakkola, T. (2003). Weighted low-rank approximations. In Proceedings of the 20th International Conference on Machine Learning (ICML-03) (pp. 720-727). Artículo citado por Pan et al. (2008) indicando detalles de la versión no regularizada que inspira OCCF.
-
El siguiente paper es opcional, pero permite entender cómo se deriva
$y_i = (X^T C^i X + \lambda I)^{-1} X^T C^i p(i)$ e$x_u = (Y^T C^u Y + \lambda I)^{-1} Y^T C^u p(u)$ del paper de Hu et al.: Takács, G., Pilászy, I., & Tikk, D. (2011). Applications of the conjugate gradient method for implicit feedback collaborative filtering. In Proceedings of the fifth ACM conference on Recommender systems (pp. 297-300). ACM. -
Verstrepen, K., Bhaduriy, K., Cule, B., & Goethals, B. (2017). Collaborative filtering for binary, positiveonly data. ACM Sigkdd Explorations Newsletter, 19(1), 1-21.
Obligatorias
- Shuai Zhang, Lina Yao, Aixin Sun, and Yi Tay. 2019. Deep Learning Based Recommender System: A Survey and New Perspectives. ACM Comput. Surv. 52, 1, Article 5 (January 2020), 38 pages. pdf
Sugeridas
- Covington, P., Adams, J., & Sargin, E. (2016). Deep neural networks for youtube recommendations. In Proceedings of the 10th ACM conference on recommender systems (pp. 191-198).
- Bansal, T., Belanger, D., & McCallum, A. (2016). Ask the gru: Multi-task learning for deep text recommendations. In Proceedings of the 10th ACM Conference on Recommender Systems (pp. 107-114).
- He, R., & McAuley, J. (2016). VBPR: visual bayesian personalized ranking from implicit feedback. In Proceedings of the AAAI conference on artificial intelligence (Vol. 30, No. 1).
Obligatorias
- Xin Xin, Alexandros Karatzoglou, Ioannis Arapakis, and Joemon M. Jose. 2020. Self-Supervised Reinforcement Learning for Recommender Systems. In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR '20). Association for Computing Machinery, New York, NY, USA, 931–940. pdf
Sugeridas
- Lacerda, A., Santos, R. L., Veloso, A., & Ziviani, N. (2015). Improving daily deals recommendation using explore-then-exploit strategies. Information Retrieval Journal, 18(2), 95-122.
- Guillou, F., Gaudel, R., & Preux, P. (2016). Scalable explore-exploit collaborative filtering. In Pacific Asia Conference On Information Systems (PACIS). Association For Information System.
- Teo, C. H., Nassif, H., Hill, D., Srinivasan, S., Goodman, M., Mohan, V., & Vishwanathan, S. V. N. (2016). Adaptive, personalized diversity for visual discovery. In Proceedings of the 10th ACM conference on recommender systems (pp. 35-38).
Obligatorias
- Steck, H., Baltrunas, L., Elahi, E., Liang, D., Raimond, Y., & Basilico, J. (2021). Deep Learning for Recommender Systems: A Netflix Case Study. AI Magazine, 42(3), 7-18. pdf
Obligatorias
- Manish Raghavan, Solon Barocas, Jon Kleinberg, and Karen Levy. 2020. Mitigating bias in algorithmic hiring: evaluating claims and practices. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT* '20). Association for Computing Machinery, New York, NY, USA, 469–481. pdf
