Skip to content

PUC-RecSys-Class/RecSysPUC-2025-2

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

IIC3633 Sistemas Recomendadores

Agosto-Diciembre 2025

Equipo Docente e Información Administrativa

Instructor: Denis Parra, Profesor Asociado PUC Chile, Ph.D. University of Pittsburgh

Ayudantes:

Institución: Pontificia Universidad Católica de Chile

Horario cátedra: Martes y Jueves, Módulo 3 (11:00 a 12:10). Sala B24.
Horario ayudantía: Lunes, Módulo 5 (14:50 a 16:00). Sala B18.

Sitio web lecturas: Perusall

Programa IIC3633, 2do Semestre 2025: pdf

AVISOS

  • (23/10) Se deja completo la calendarización y material de los seminarios en el README de la carpeta seminarios/
  • (09/09) Se publica el enunciado del Proyecto de Curso, el cual se encuentra disponible en el siguiente enlace
  • (21/08) La lista de grupos para la Tarea 1 se encuentra disponible en el siguiente enlace, donde los alumnos sin acceso a Canvas pueden inscribirse directamente.
  • (12/08) Se encuentra subida la Tarea 1 en el siguiente enlace.
  • (14/08) Se habilitó un foro en Canvas para realizar consultas de la Tarea 1.
  • (14/08) Se actualiza enunciado de la Tarea 1 para resolver inconsistencias.

Descripción del Curso

El curso de Sistemas Recomendadores cubre las principales tareas de recomendación, algoritmos, fuentes de datos y evaluación de estos sistemas. Al final de este curso serás capaz de decidir qué técnicas y fuentes de datos usar para implementar y evaluar sistemas recomendadores.

Software: Suprise, Implicit y pyRecLab.

Contenidos por Semana

Coursera
Los contenidos de las semanas 1, 2 y 4 los puedes revisar a tu ritmo en este curso de 4 módulos de Coursera llamado Fundamentos de Sistemas de recomendación

Semana Tema link slide(s)
1 PPT Evaluaciones slides
1 Ranking no personalizado y Filtrado colaborativo (FC) slides
1 Item-based FC slides
2 Factorización Matricial: FunkSVD slides (apunte FunkSVD)
2 Implicit Feedback CF, WMF(ALS) slides
3 Bayesian Personalized Ranking (BPR) slides
3 Evaluación: metricas de error y ranking slides
3 Evaluación II: Cobertura, diversidad, novedad slides
3 Evaluación III: Tests estadísticos slides
4 Recomendación basada en contenido 1 slides
5 Recomendación basada en contenido 2 slides
5 Recomendación híbrida slides
5 Recomendación por ensambles slides
6 Recomendación basada en contexto slides
6 Máquinas de Factorización slides
6 Ideas de proyecto final (2025) slides / enunciado
7 SEMANA DE RECESO Escuchar Radiohead o Pink Floyd(?!)
8 Deep Learning I: Intro slides
8 Deep Learning II: Recomendación secuencial slides
9 Bandidos multibrazos slides
10 Aprendizaje Reforzado Intro slides
10 Aprendizaje Reforzado for RecSys I slides
10 Aprendizaje Reforzado for RecSys II slides
11 GNNs para SR slides
11 Sistemas Justos, Explicables y Transparentes slides
12 10 problemas en Sistemas de Recomendación slides

Planificación 2025-2

Image

Código de Honor

Este curso adscribe el Código de Honor establecido por la Escuela de Ingeniería el que es vinculante. Todo trabajo evaluado en este curso debe ser propio. En caso de que exista colaboración permitida con otros estudiantes, el trabajo deberá referenciar y atribuir correctamente dicha contribución a quien corresponda. Como estudiante es su deber conocer la versión en línea del Código de Honor.

IMPORTANTE: En este curso se permite el uso de modelos de lenguaje (ChatGPT, Gemini, Claude, etc) como apoyo en el desarrollo de las evaluaciones del curso, siempre y cuando no reemplaze el trabajo por parte de cada estudiante. En caso de usar alguna inteligencia artificial en el desarrollo de sus evaluaciones, se deberá citar dicho uso y compartir el enlace a la conversación (o conversaciones) con las IAs correspondientes en la entrega de la evaluación correspondiente.

Evaluaciones

Detalles de las evaluaciones en esta presentacion

Prácticos (10%)

Habrá una actividad práctica relacionada a cada ayudantía, la cual consistirá en un desafío de código que deberá ser entregado por Canvas el viernes de la semana correspondiente a las 20:00. El promedio de los prácticos tendrá una ponderación del 10% en la nota final del curso.

Tarea 1 (20%)

Se realizará una tarea que constará de dos partes:

  • Interrogación métricas (30%): Se realizará un práctico en clases (martes 26 de agosto) acerca de métricas y se entregará a final de la clase​. La inasistencia no justificada equivaldrá a un 1.0.
  • Tarea (70%): Deberán implementar mecanismos de recomendación para predecir ratings y para rankear items en un dataset entregado por el cuerpo docente.

Lecturas Semanales (5%)

Cada alumno debe crear una cuenta en el sitio Perusall con su correo UC (codigo de curso PARRA-2AV7Y). Cada semana deberá escribir 5 comentarios propios y 2 comentarios respondiendo a sus compañeros en los módulos de las lecturas marcadas como obligatorias.

Para descargar los archivos se sugiere buscarlos en Scholar o a través de EZProxy.

Fecha de revisión de comentarios de lecturas: El post de la semana x, tiene fecha de entrega el lunes a las 20:00 de la semana x + 1. Ejemplo: Los comentarios de las lecturas de la semana 1 (clase del 5 de agosto) se entregan a más tardar el lunes 11 de agosto a las 20:00.

Seminario (25%)

En la segunda mitad del semestre, los estudiantes formarán grupos para leer un artículo y realizar una presentación acerca de este frente al resto del curso. Las presentaciones se realizarán entre las clases del 21 de octubre y 20 de noviembre. Los artículos a presentar se publicarán el martes 23 de septiembre. Todo el material se encuentra publicado en el README en la carpeta seminarios/.

Proyecto Final (40%)

A inicios de octubre, las(los) estudiantes enviarán una idea de proyecto final, la cual desarrollarán durante octubre, noviembre e inicios de diciembre. Enviarán un informe de avance a fines de octubre, para hacer una presentación de su proyecto al final del curso en una sesión de posters, además de un informe formato paper.

IMPORTANTE: Todas las entregas del curso son a las 20:00 del día de entrega correspondiente.

Semana 1 (entrega el 11 de agosto):

Obligatorias

  • Kluver, D., Ekstrand, M. D., & Konstan, J. A. (2018). Rating-based collaborative filtering: algorithms and evaluation. Social information access: Systems and technologies, 344-390. pdf secciones (1-6)

Sugeridas

  • Schafer, J. B., Frankowski, D., Herlocker, J., & Sen, S. (2007). Collaborative filtering recommender systems. In The adaptive web (pp. 291-324). Springer Berlin Heidelberg.
  • Sarwar, B., Karypis, G., Konstan, J., & Riedl, J. (2001). Item-based collaborative filtering recommendation algorithms. In Proceedings of the 10th international conference on World Wide Web (pp. 285-295).
  • Post original FunkSVD
  • Lemire, D., & Maclachlan, A. (2005). Slope One Predictors for Online Rating-Based Collaborative Filtering. In SDM (Vol. 5, pp. 1-5).

Semana 2 (entrega el 18 de agosto):

Obligatorias

  • Kluver, D., Ekstrand, M. D., & Konstan, J. A. (2018). Rating-based collaborative filtering: algorithms and evaluation. Social information access: Systems and technologies, 344-390. pdf secciones (7-9)

Sugeridas

  • Hu, Y., Koren, Y., & Volinsky, C. (2008). Collaborative filtering for implicit feedback datasets. In Data Mining, 2008. ICDM’08. Eighth IEEE International Conference on (pp. 263-272). IEEE.

  • Takács, G., Pilászy, I., Németh, B., & Tikk, D. (2009). Scalable collaborative filtering approaches for large recommender systems. Journal of machine learning research, 10(Mar), 623-656.

  • Rendle, S., Freudenthaler, C., Gantner, Z., & Schmidt-Thieme, L. (2009). BPR: Bayesian personalized ranking from implicit feedback. In Proceedings of the Twenty-Fifth Conference on Uncertainty in Artificial Intelligence (pp. 452-461). AUAI Press.

  • Koren, Y., Bell, R., & Volinsky, C. (2009). Matrix factorization techniques for recommender systems. Computer, 42(8), 30-37.

  • Pan, R., Zhou, Y., Cao, B., Liu, N. N., Lukose, R., Scholz, M., & Yang, Q. (2008). One-class collaborative filtering. In 2008 Eighth IEEE International Conference on Data Mining (pp. 502-511). IEEE. En este artículo aparecen la derivación y reglas de actualización de los parámetros así como las nociones de AMAN y AMAU.

  • Jannach, D., Lerche, L., & Zanker, M. (2018). Recommending based on implicit feedback. In Social Information Access (pp. 510-569). Springer, Cham.

  • Srebro, N., & Jaakkola, T. (2003). Weighted low-rank approximations. In Proceedings of the 20th International Conference on Machine Learning (ICML-03) (pp. 720-727). Artículo citado por Pan et al. (2008) indicando detalles de la versión no regularizada que inspira OCCF.

  • El siguiente paper es opcional, pero permite entender cómo se deriva $y_i = (X^T C^i X + \lambda I)^{-1} X^T C^i p(i)$ e $x_u = (Y^T C^u Y + \lambda I)^{-1} Y^T C^u p(u)$ del paper de Hu et al.: Takács, G., Pilászy, I., & Tikk, D. (2011). Applications of the conjugate gradient method for implicit feedback collaborative filtering. In Proceedings of the fifth ACM conference on Recommender systems (pp. 297-300). ACM.

  • Verstrepen, K., Bhaduriy, K., Cule, B., & Goethals, B. (2017). Collaborative filtering for binary, positiveonly data. ACM Sigkdd Explorations Newsletter, 19(1), 1-21.

Semana 8 (entrega 29 de septiembre):

Obligatorias

  • Shuai Zhang, Lina Yao, Aixin Sun, and Yi Tay. 2019. Deep Learning Based Recommender System: A Survey and New Perspectives. ACM Comput. Surv. 52, 1, Article 5 (January 2020), 38 pages. pdf

Sugeridas

  • Covington, P., Adams, J., & Sargin, E. (2016). Deep neural networks for youtube recommendations. In Proceedings of the 10th ACM conference on recommender systems (pp. 191-198).
  • Bansal, T., Belanger, D., & McCallum, A. (2016). Ask the gru: Multi-task learning for deep text recommendations. In Proceedings of the 10th ACM Conference on Recommender Systems (pp. 107-114).
  • He, R., & McAuley, J. (2016). VBPR: visual bayesian personalized ranking from implicit feedback. In Proceedings of the AAAI conference on artificial intelligence (Vol. 30, No. 1).

Semana 9 (entrega 06 de octubre):

Obligatorias

  • Xin Xin, Alexandros Karatzoglou, Ioannis Arapakis, and Joemon M. Jose. 2020. Self-Supervised Reinforcement Learning for Recommender Systems. In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR '20). Association for Computing Machinery, New York, NY, USA, 931–940. pdf

Sugeridas

  • Lacerda, A., Santos, R. L., Veloso, A., & Ziviani, N. (2015). Improving daily deals recommendation using explore-then-exploit strategies. Information Retrieval Journal, 18(2), 95-122.
  • Guillou, F., Gaudel, R., & Preux, P. (2016). Scalable explore-exploit collaborative filtering. In Pacific Asia Conference On Information Systems (PACIS). Association For Information System.
  • Teo, C. H., Nassif, H., Hill, D., Srinivasan, S., Goodman, M., Mohan, V., & Vishwanathan, S. V. N. (2016). Adaptive, personalized diversity for visual discovery. In Proceedings of the 10th ACM conference on recommender systems (pp. 35-38).

Semana 10 (entrega 13 de octubre):

Obligatorias

  • Steck, H., Baltrunas, L., Elahi, E., Liang, D., Raimond, Y., & Basilico, J. (2021). Deep Learning for Recommender Systems: A Netflix Case Study. AI Magazine, 42(3), 7-18. pdf

Semana 11 (entrega 20 de octubre):

Obligatorias

  • Manish Raghavan, Solon Barocas, Jon Kleinberg, and Karen Levy. 2020. Mitigating bias in algorithmic hiring: evaluating claims and practices. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT* '20). Association for Computing Machinery, New York, NY, USA, 469–481. pdf

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 19