L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 629 résultats.
Offre d'emploi
Data web analyst
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server
1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Mission freelance
Développeur CRM Salesforce Marketing Cloud
Publiée le
Data Lake
Salesforce Sales Cloud
1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand
Publiée le
Google Cloud Platform (GCP)
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
DATA DESIGNER H/F/NB
Publiée le
Agile Scrum
Gouvernance
Modélisation
120 jours
400-500 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Un acteur majeur de l'écosystème français recherche son futur Data Designer pour rejoindre une équipe d'experts passionnés par l'innovation et la transformation digitale. Rejoignez le Shared Service Data Office et devenez l'architecte de demain ! Vous interviendrez comme System Architect au cœur des trains SAFe, collaborant avec des architectes technique et fonctionnel pour façonner l'avenir data de l'organisation. 🎨 Vos Créations : ✨ Architecte de l'impossible - Participez à la construction d'une architecture Datacentric révolutionnaire 🧠 Sculpteur de données - Enrichissez et modélisez le patrimoine informationnel de l'entreprise 🔮 Créateur d'ontologies - Définissez les langages de demain pour structurer la connaissance ⚡ Facilitateur agile - Accompagnez les équipes dans la création de solutions innovantes
Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps
Publiée le
Architecture
Azure
Cloud
12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Mission freelance
Master data management
Publiée le
Cybersécurité
Gestion de projet
Master Data Management (MDM)
3 mois
500-600 €
Yvelines, France
Télétravail partiel
Périmètre technique La Prestation s’inscrit dans le cadre du remplacement des outils Après-Vente et particulièrement sur les données à remplacer dans les nouveaux SI. Objet de la Prestation La Prestation consiste à - Concevoir, piloter et sécuriser l’architecture Master Data pour l’ensemble des données de l’après-vente (pièces de rechange, réseaux, client, pricing, logistique). - Garantir la qualité, la cohérence et la disponibilité des données afin de soutenir les processus métier (Order to Cash, Procure to Pay, Supply Chain, Customer Relationship Management). - Suivre et coordonner les projets de migration ou d’évolution (ex. passage à un MDM cloud). Missions Les livrables attendus du PRESTATAIRE sont : - Schéma d’architecture cible et roadmap de mise en œuvre (données, flux, référentiels, gouvernance). - Catalogue de données et dictionnaire des référentiels (produit, client, fournisseur, réseau) compatibles avec les standards RENAULT et l’écosystème digital (ERP, PIM, DMS, TMS, etc.). - Indicateurs de qualité (complétude, unicité, conformité) et rapports mensuels. - Vérification du respect RGPD et des exigences cybersécurité. - Mise en place la traçabilité et l’audit des données sensibles. - Plans de remédiation (nettoyage, dé-duplication, normalisation). - Mise en place des règles de gouvernance : ownership, rôles, workflow de validation. - Rédaction des spécifications techniques et fonctionnelles. - Tableau de bord sur l’état d’avancement des projets de migration ou d’évolution, avec point d’alerte en cas dysfonctionnement et solution proposée. - Dossier de capitalisation.
Offre d'emploi
Data Analyst BI H/F
Publiée le
Business Intelligence
Business Object
ETL (Extract-transform-load)
36 mois
50k-60k €
450-550 €
Hauts-de-Seine, France
Télétravail partiel
Amago IT recherche dans le cadre d'une prestation de longue durée pour l'un de nos clients dans le secteur Assurance basé dans le 92 : un Data Analyste BI H/F Missions : · Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions pour répondre aux besoins internes. · Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. · Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. · Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. · Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. · Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. · Assistance aux utilisateurs pour les autonomiser. Aide à la gestion du changement.
Offre d'emploi
Data analyst
Publiée le
Microsoft Power BI
Microsoft SSIS
SQL
12 mois
40k-44k €
370-400 €
Toulouse, Occitanie
Télétravail partiel
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
Mission freelance
Data analyst
Publiée le
SQL
12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Mission freelance
Déploiement Business Central (Papeete) h/f
Publiée le
AMOA
microsoft
Microsoft Dynamics
6 mois
400-630 €
Papeete, Polynésie française
Notre client (3000 collaborateurs) lance le déploiement de Microsoft Dynamics 365 Business Central pour remplacer Microsoft Dynamics NAV. Le périmètre concerne 100 entités et 500 utilisateurs (dont 100 key users). Le projet est au début de la phase Build. Objectif : harmoniser et optimiser les processus Finance et Supply Chain à travers un Core Model Groupe. Missions principales Paramétrage et recette de la solution Business Central Formation et accompagnement des key users Déploiement du Core Model dans les entités Participation à l’optimisation et l’harmonisation des processus Finance / Supply Chain / Appro / Vente
Offre d'emploi
Business Analyst Data Management - Nantes
Publiée le
Business Analyst
Data management
JIRA
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
Offre d'emploi
Data Analyst
Publiée le
MySQL
SAS
6 mois
29k-34k €
250-280 €
Le Mans, Pays de la Loire
Objectifs de la mission Dans le cadre d’activités de pilotage et d’analyse, nous recherchons un Chargé d’Études Statistiques maîtrisant SAS afin de réaliser des travaux d’extraction, de contrôle qualité, d’analyse et de restitution auprès des équipes métier. Livrables attendus Jeux de données fiables issus des extractions SAS Rapports d’analyses Contrôles de cohérence et de qualité des données Tableaux de bord de pilotage Notes de synthèse et documents de restitution Recommandations sur l’amélioration des processus Missions Réaliser des extractions de données via SAS Manipuler, structurer et nettoyer les données Effectuer les contrôles qualité sur les données produites Analyser les résultats et produire les indicateurs de pilotage Rédiger et présenter les analyses aux équipes métier Contribuer à la fiabilisation des référentiels data Échanger avec les équipes métier pour comprendre les besoins et restituer les résultats Profil recherché Bac +3 à Bac +5 en statistiques, mathématiques appliquées, data analysis ou domaine équivalent Expérience confirmée en tant que Chargé d’Études Statistiques, Data Analyst ou équivalent Maîtrise de SAS (SAS Base, Macro) Aisance dans la manipulation de données volumineuses Capacité d’analyse et de synthèse Bon relationnel et capacité à interagir avec les équipes métier Rigueur, autonomie, sens du contrôle et de la qualité des données Compétences techniques SAS Base / SAS Enterprise Guide SQL apprécié Connaissances en qualité de données et data management appréciées Connaissance du secteur assurance est un plus Soft skills Rigueur Autonomie Communication claire Travail en équipe Capacité d’adaptation
Mission freelance
Data Engineer Scala/Spark.
Publiée le
Azure
Databricks
Datadog
1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Mission freelance
Développeur Dynamics 365 Business Central F/H - TARARE (69)
Publiée le
Microsoft Dynamics
6 mois
500-550 €
Tarare, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client dans le secteur Industrie recherche un/une Développeur Dynamics 365 Business Central F/H Description de la mission: Objectif : Avoir le rôle de développeur sénior, conseiller l'équipe de développement, participer à l'intégration des données, faire de la revue de code, déployer des applications. Livrables attendus : Livraisons d'applicatifs communs ou spécifiques. Reporting sur l'avancée des sprints. - Concevoir et valider l'architecture ERP en fonction des spécificités projet. - Encadrer les équipes de développeurs, superviser les phases de développement et garantir la qualité des livrables. - Respecter les délais, les budgets et avoir une communication fluide avec les parties prenantes. - Participer activement au développement de modules spécifiques et à l'intégration des solutions. - Apporter une expertise technique pour résoudre les défis liés à la performance, l’intégration et la sécurité. - Fournir un support technique expert aux équipes internes et aux clients. - Proposer des améliorations continues des processus et de l'architecture des solutions. - Faire de la revue de code sur le local comme chez les filiales. - Centraliser le code sous forme d'apps. - Gestion des pipelines. Expertise requise : '- Supervision technique des projets d’intégration - Paramétrage de Microsoft Dynamics 365 Business Central - Architecture technique - Développement de solutions spécifiques - API / Web services - Performance et sécurité - Déploiement et réalisation d'apps. - Expertise sur les pipelines CI/CD Compétences / Qualités indispensables : Expérience significative en tant que Tech Lead ou Architecte technique, Bonne maitrise d'Azure Devops., Maîtrise du langage AL., Paramétrage de Business Central., Maitrise des environnements de production et des Sanboxes., Etre capable de faire monter en compétences l'équipe de développeurs. Compétences / Qualités qui seraient un + : - Maîtriser la méthodologie Sprint (Scrum). - Travailler dans ADO en mode Sprint. - Excellentes aptitudes à interagir avec les parties prenantes (clients, développeurs, chefs de projet). - Capacité à diriger des équipes pluridisciplinaires et à les orienter vers l'excellence technique. - Être organisé; savoir gérer les priorités, respecter les délais. - Bonne capacité d'analyse. - Etre proactif Informations concernant le télétravail : 2 J de remote possible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2629 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois