L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 8 résultats.
Offre d'emploi
Data Ops
Publiée le
Apache Spark
1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Offre d'emploi
Data Ops
Publiée le
DevOps
Python
40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)
Publiée le
Azure
Azure AI Foundry
6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Offre d'emploi
QA Technico-fonctionnel - Secteur Luxe (H/F)
Publiée le
Postman
1 an
46k-56k €
400-520 €
Paris, France
Télétravail partiel
Nous recherchons un QA technico-fonctionnel pour intervenir dans le secteur du luxe. 1. Conception & stratégie de tests Analyser les besoins fonctionnels et techniques à partir des User Stories, spécifications fonctionnelles et techniques. Définir les plans de tests (fonctionnels, techniques, API, non-régression, bout-en-bout). Évaluer les risques et contribuer à la stratégie qualité du produit. 2. Exécution des tests Réaliser les tests manuels fonctionnels et techniques. Effectuer des tests API via Postman (collections, scripts, validations, environnements). Vérifier la conformité des résultats, documenter les anomalies et suivre leur résolution. 3. Gestion des anomalies & reporting Créer et suivre les tickets Jira (défauts, tâches QA, documentation). Assurer un reporting régulier sur l’avancement des campagnes de tests. Participer aux rituels Agile (daily, sprint planning, rétrospectives). 4. Support & coordination Travailler en étroite collaboration avec les équipes Dev, PO, UX, Data, OPS. Apporter un support qualité durant les mises en production. Vérifier la cohérence fonctionnelle pour garantir une expérience client irréprochable. Compétences techniques Tests API : Postman (collections, scripts tests, environnements). Gestion de projet & anomalies : Jira. Base de données : Maîtrise des requêtes SQL (lecture, jointures, vérification des données). Méthodologie : Scrum, gestion des User Stories et critères d'acceptation. Connaissance d’outils de test : Zephyr, TestRail, Xray (souhaité). Connaissance d’outils CI/CD (Jenkins, Gitlab CI) est un plus.
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Offre d'emploi
Développeur Python – Automatisation
Publiée le
Apache Airflow
CI/CD
Docker
40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Offre d'emploi
Tech Lead Cloud AWS - H/F
Publiée le
Cloud
50k-55k €
31000, Toulouse, Occitanie
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Tech Lead Cloud AWS pour l'un de nos clients du secteur aéronautique. Vous interviendrez sur le site client situé à Toulouse (31). À ce titre, vos missions quotidiennes seront les suivantes : - Analyser le contexte technique, les besoins utilisateurs et les contraintes des équipes IA, Data et RPA ; - Définir le modèle cible de la plateforme Boost IT (architecture, sécurité, outillage, CI/CD, environnements, interfaces SEP IT) ; - Concevoir les architectures Cloud AWS en conformité avec les standards industriels et les référentiels SEP IT ; - Implémenter un MVP opérationnel de la plateforme, incluant les premiers environnements Cloud ; - Mettre en place des chaînes CI/CD automatisées basées sur GitLab CI, Jenkins et des pratiques DevOps avancées ; - Déployer des projets pilotes représentatifs (use cases IA, Data, ML Ops, RPA) pour valider la plateforme ; - Documenter l'architecture cible, la roadmap de déploiement, les procédures de RUN et les processus d'onboarding ; - Industrialiser les environnements Cloud via Infrastructure as Code (Terraform, CloudFormation) et outils d'automatisation ; - Accompagner la montée en compétences des équipes internes via ateliers, formations et partage de bonnes pratiques ; - Garantir la conformité, la sécurité et la pérennité de la plateforme dans un contexte industriel exigeant. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Passage sasu à eurl: transition mutuelle/prévoyance
- Facturation électronique 01 : Rappel du calendrier !
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Création de site Wordpress : BIC ou BNC ?
8 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois