Ingénieur de Données & d'IA

MTY Food Group - 3 Jobs
Montreal, QC
Posted 2 days ago
Job Details:
Full-time
Experienced
Benefits:
Flexible Work
Employee Assistance Program

Titre du poste : Ingénieur Données & IA

Êtes-vous un ingénieur de données prêt à faire passer votre carrière au niveau supérieur grâce à des technologies de pointe telles que Databricks, Azure et Terraform ? Le Groupe MTY est à la recherche d'un Ingénieur Données pour concevoir, développer et optimiser un écosystème de données global unifié s'appuyant sur Databricks Lakehouse, Delta Share, Unity Catalog et d'autres outils à la fine pointe de l'industrie. Il s'agit d'une occasion unique de contribuer directement à l'avenir axé sur les données de MTY, en soutenant des initiatives avancées en apprentissage automatique et en optimisant des pipelines de données complexes à grande échelle.

À propos de nous :

Le Groupe MTY est un chef de file mondial dans la franchise de restaurants multimarques, servant des millions de clients à travers plus de 90 marques et 7 000 établissements. Axé sur l'innovation et l'excellence opérationnelle, MTY est résolu à bâtir un avenir fondé sur les données pour soutenir la prise de décisions éclairées et maximiser la valeur d'affaires.

Avantages :

  • 3 semaines de vacances;
  • 5 journées de congés mobiles;
  • 2000$ de remboursement des frais d'ordre professionnel et de formation continue;
  • Horaire de travail flexible
  • Demi-journée le vendredi disponible à l'année;
  • Plans de santé et dentaires d'entreprise, compte de dépenses santé/personnel de bien-être supplémentaire de 300$;
  • Programme d'assistance aux employés avec accès à un large éventail de services allant de la santé mentale aux conseils juridiques et financiers;
  • Régime de participation des employés aux bénéfices avec contribution de l'employeur;
  • Prix mensuels de reconnaissance à l'échelle de l'entreprise avec des gagnants trimestriels et annuels;
  • Événements sociaux d'entreprise, y compris, mais sans s'y limiter, des webinaires, des assemblées publiques trimestrielles et des activités amusantes pour tous;
  • Tenue d'affaires décontractée;
  • Stationnement gratuit au bureau.

Responsabilités :

  • Concevoir et mettre en Å“uvre des pipelines de données fiables, évolutifs et efficaces à l'aide de Databricks, pour ingérer, transformer et livrer les données vers la plateforme unifiée de MTY. Utiliser Delta Lake pour assurer un stockage et une gestion des données de haute qualité dans une architecture Lakehouse. Optimiser les processus en mode batch et temps réel.
  • Concevoir des systèmes de données infonuagiques avec Azure Data Lake, Azure Databricks et Azure Purview. Mettre en place Unity Catalog pour la gouvernance, la sécurité et la gestion des métadonnées. Exploiter Delta Share pour un partage de données sécurisé entre les différentes unités d'affaires.
  • Utiliser Databricks et Apache Spark pour créer des workflows de données optimisés et évolutifs, et mettre en place les meilleures pratiques de gestion (partitionnement, curation, évolution des schémas).
  • Collaborer avec les scientifiques des données pour construire des pipelines robustes d'ingénierie des caractéristiques via Databricks et MLflow, et ainsi extraire des attributs pertinents à partir des données brutes.
  • Travailler avec les ingénieurs en apprentissage automatique pour mettre en production les modèles, assurer leur traçabilité, gestion des versions et déploiement à l'échelle avec Databricks et MLflow.
  • Automatiser la gestion de l'infrastructure à l'aide de Terraform pour déployer les ressources Azure et les clusters Databricks, en assurant un environnement stable, réplicable et efficient.
  • Se tenir à jour sur les nouveautés de Databricks et Azure (Unity Catalog, Delta Sharing, architecture Lakehouse) et piloter leur adoption.
  • Développer de solides pratiques de modélisation des données (modèles dimensionnels, schémas en étoile, modèles normalisés) en tirant parti des capacités transactionnelles de Delta Lake pour assurer l'intégrité des données.
  • Surveiller la performance des pipelines via les outils Databricks et optimiser en continu pour garantir la scalabilité, la rentabilité et la réactivité.
  • Encadrer une équipe d'ingénieurs de données, promouvoir la collaboration, l'innovation et le développement continu. Guider les membres juniors sur les meilleures pratiques en lien avec Databricks, Azure et l'architecture infonuagique.
  • Collaborer avec les analystes, les scientifiques des données et les équipes produits pour comprendre les besoins analytiques et en IA, et livrer des solutions à impact d'affaires.

Qualifications :

  • Minimum de 5 ans d'expérience pratique en ingénierie des données, avec un historique de gestion de pipelines complexes dans des environnements Azure. Solide expérience en architecture Lakehouse et pipelines pour l'apprentissage automatique avec Databricks.
  • Maîtrise des composants de Databricks : Delta Lake, Unity Catalog, MLflow. Expérience avec Delta Share pour le partage sécurisé des données. Connaissance approfondie de l'architecture Lakehouse.
  • Expérience approfondie en modélisation de données : schémas en étoile, modèles dimensionnels, modèles à grande échelle dans un environnement Lakehouse. Capacité à garantir la cohérence et l'intégrité grâce aux modèles transactionnels de Delta Lake.
  • Expertise avec Azure Data Lake, Azure Databricks et Azure Purview pour la gouvernance et la gestion des données. Bonne maîtrise des services de traitement infonuagiques (Databricks, Spark, etc.).
  • Solides compétences en programmation (Python, Scala ou SQL) pour construire les pipelines, automatiser les workflows et intégrer les modèles IA en production.
  • Maîtrise de Terraform pour la gestion automatisée, évolutive et reproductible de l'infrastructure infonuagique.
  • Certifications pertinentes fortement souhaitées : Databricks (Apache Spark), Azure Fundamentals, Azure Data Engineer Associate ou autres équivalentes.
  • Compétences en leadership : capacité à diriger une équipe, encadrer des ingénieurs juniors et collaborer efficacement avec les parties prenantes internes.
  • Excellentes aptitudes analytiques et sens pratique développé pour résoudre des défis complexes en ingénierie des données. Expérience dans un environnement Agile et méthodologies de développement itératif.

Veuillez noter que toute offre d'emploi sera conditionnelle à une vérification des antécédents, y compris du casier judiciaire.

La majorité de notre clientèle et une grande partie de nos employés sont en dehors du Québec

Share This Job: