L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 155 résultats.
Offre d'emploi
Senior Platform Engineer / Site Reliability Engineer (SRE)
bdevit
Publiée le
Argo CD
AWS Cloud
CI/CD
36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de nos équipes plateforme, nous recherchons un Senior Platform Engineer / Site Reliability Engineer (SRE) spécialisé en Container as a Service (CaaS) pour un démarrage ASAP . Le poste s’inscrit dans une démarche de construction et d’évolution de plateformes internes à grande échelle. Nous ne recherchons pas un profil Ops traditionnel, mais un véritable Platform Builder , doté d’une forte culture produit et d’une solide expérience en environnements cloud-native en production. Missions Principales : Concevoir, construire et maintenir des plateformes CaaS/PaaS internes basées sur Kubernetes ; Définir et faire évoluer l’architecture des clusters Kubernetes managés ( EKS / GKE ) ; Garantir la sécurité, la fiabilité et la scalabilité des plateformes ; Mettre en œuvre et maintenir l’ Infrastructure as Code (Terraform / Terragrunt) en production ; Déployer et opérer des chaînes GitOps et CI/CD robustes et automatisées ; Accompagner les équipes de développement dans l’adoption de la plateforme (self-service, bonnes pratiques) ; Participer activement à la gestion des incidents (on-call), aux post-mortems et à l’amélioration continue ; Automatiser la remédiation des incidents récurrents et optimiser l’exploitation de la plateforme.
Mission freelance
EXPERT(E) RESEAU TELECOM - Confirmé F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
BGP (Border Gateway Protocol)
12 mois
450-500 €
Île-de-France, France
Description détaillée : Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud: Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences : - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Offre d'emploi
Expert Data Référentiels
Management Square
Publiée le
API
Azure DevOps
Azure Synapse
1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Offre d'emploi
Consultant Data (H/F)
HOXTON PARTNERS
Publiée le
Qlik
Snowflake
Talend
4 mois
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme de structuration et d’optimisation des flux de données au sein d’un environnement international, nous recherchons un Consultant Data technico-fonctionnel confirmé afin d’accompagner les équipes dans la fiabilisation et l’exploitation des données. Missions Concevoir et maintenir les flux d’acquisition et de transformation de données Développer et optimiser les traitements ETL sous Talend Studio Structurer et exploiter les données au sein de l’environnement Snowflake Contribuer à la restitution et au pilotage des indicateurs via la BI Qlik Collaborer avec les équipes techniques et métiers pour assurer la cohérence des modèles de données
Offre d'emploi
Architecte technique
SARIEL
Publiée le
AWS Cloud
CI/CD
Cloud
12 mois
Paris, France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Architecte Technique. Localisation : 75015 Mission : Au sein de la Direction Exécutive des Systèmes d'Information, et plus particulièrement de la Direction des Infrastructures SI, la cybersécurité et de l'exploitabilité DICE, l'équipe Plan Directeur/Architecture et étude projet est responsable de définir la roadmap globale avec les différents acteurs impliqués, de réaliser la conception et le design des différentes solutions sur l’ensemble du périmètre SI qui contient aussi la gestion et le pilotage du portefeuille de projets lié à la transformation du SI. A ce titre, l'équipe Plan Directeur/Architecture recherche un Architecte Technique qui sera responsable de déterminer les socles techniques d’infrastructure, les solutions d'hébergements et l’architecture technique des infrastructures en déclinaison de l’offre de service DICE La prestation consiste à : - Produire les règles d’architecture et les principes d’usage du cloud Hybride - Évaluer et valider les choix technologiques du domaine, réaliser la veille technologique et proposer les choix sur l’évolution du catalogue de services en liaison avec les Direction d'Ingénierie du SI - Évaluer et valider la conformité de l’architecture infrastructure vis-à-vis de la politique de sécurité du SI - Valider les solutions en comité d’architecture au niveau SI - Suivre régulièrement l’avancement de la roadmap de l’industrialisation des nouvelles technologies du domaine - Optimiser les infrastructures versus le cout des licences e Forte expérience d'ingénierie d'infrastructure SI ou fonctionnelle SI Compétences techniques requises : - Serveurs , Stockages , Bases de Données, Middleware, Réseau et Accès - Architecture Cloud privé VMWare et à base de containers, Infrastructures Agiles ( K8S, Solutions Open Sources ...) - Automatisation, DEVOPS , CI/CD - Cloud Hybride (Cloud Privé, GCP, AWS) - Connaissance des principes Sécurité Maitrise de l'anglais Bonnes qualités relationnelles, diplomatie, adaptabilité et esprit « orienté client » Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Scientist / Développeur Python – Data & Analytics
TOHTEM IT
Publiée le
40k-55k €
Paris, France
Contexte de la mission Dans le cadre du renforcement d’une équipe projet , nous recherchons un Data Scientist / Développeur Python pour intervenir sur des sujets liés au développement et à la valorisation de données . La mission s’inscrit dans un environnement technique orienté analyse, traitement et exploitation de données , avec pour objectif de concevoir et améliorer des composants permettant d’extraire de la valeur à partir de jeux de données complexes. Missions principales Analyser les besoins fonctionnels et participer à la conception technique des solutions Développer des traitements et scripts Python dédiés à l’analyse et à la transformation de données Manipuler, préparer et structurer des jeux de données Concevoir, améliorer ou intégrer des modèles de data science Participer à l’ industrialisation des traitements et des modèles Réaliser les tests, corrections d’anomalies et optimisations Contribuer à la documentation technique Participer aux échanges avec l’équipe projet et au suivi des travaux Livrables attendus Développements Python documentés Scripts et traitements de manipulation et d’analyse de données Jeux de tests et validation des traitements Modèles ou traitements de data science intégrés Documentation technique associée Correctifs et évolutions conformes aux exigences du projet Environnement technique Data & Développement Python Data Science Traitement et analyse de données Manipulation de jeux de données Outils & Plateformes Tableau Vertica DSS (Data Science Studio) Bonnes pratiques Développement de scripts et traitements de données Tests et debugging Documentation technique Travail collaboratif en équipe projet ⭐ Compétences clés (obligatoires) Python Data Scientist Tableau Vertica DSS
Mission freelance
Data Engineer Snowflake - Lyon
Net technologie
Publiée le
Snowflake
3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Mission freelance
Mission Développeur Back-End Python – Projet Data & Imagerie Satellite (H/F)
Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD
1 an
510-580 €
Île-de-France, France
Dans le cadre du développement d’un nouveau système de détection automatisée d’objets d’intérêt sur des images satellites, nous recherchons un développeur back-end Python expérimenté. Ce projet stratégique vise à concevoir une nouvelle plateforme indépendante de l’application historique existante, avec une attention particulière portée à la robustesse et à la scalabilité de l’architecture dès les premières phases. Vous interviendrez au sein d’une petite équipe de développement composée de trois ingénieurs, dans un contexte où les choix techniques et l’architecture du système auront un impact structurant pour les évolutions futures de la solution. Les principales responsabilités incluent la conception et le développement d’API REST en Python (FastAPI), la modélisation et l’optimisation de bases de données — principalement PostgreSQL — ainsi que la structuration des fondations techniques d’un système destiné à monter en charge. Vous participerez également à l’automatisation des déploiements via des outils de conteneurisation et de CI/CD, et contribuerez à la mise en place de tests automatisés et à l’amélioration continue de l’architecture applicative
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Mission freelance
Développeur fullstack Java Angular Cloud AWS (H/F)
Insitoo Freelances
Publiée le
Angular
AWS Cloud
Java
2 ans
400-520 €
Lyon, Auvergne-Rhône-Alpes
Projet : FONCTIONNEMENT : 2 JOURS SUR SITE NON CONSECUTIFS - 3 JOURS TELETRAVAIL Les missions attendues par le Développeur fullstack Java Angular Cloud AWS (H/F) : Descriptif de la mission : Projet : Intégré à une équipe Produit, le développeur conçoit, développe et déploie les applications métiers. En plus de faire évoluer l'application, il participe à la surveillance de son bon fonctionnement en production et corrige les problèmes identifiés. Descriptif de la mission : - Participe à l'ensemble des activités de développement logiciel au sein de son équipe(conception, dev, tests, déploiement). - Participe aux différents ateliers de conception et cérémonies agiles. - Applique les meilleures pratiques de développement pour un code propre et maintenable (TDD, BDD, DDD, Pair programming...). - Participe activement à la relecture du code des autres développeurs de l'équipe. - En fonction du niveau d'expertise, accompagne des développeurs plus juniors. - Force de proposition dans la résolution des problèmes, l'amélioration de la qualité du code et l'atteinte des indicateurs Accelerate.
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Offre d'emploi
Ingénieur DevOps spécialisé en CI/CD et APIM (Kong)
bdevit
Publiée le
Ansible
CI/CD
GitLab CI
36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement des équipes DevOps, nous recherchons un Ingénieur DevOps spécialisé en CI/CD, et API Management , avec une expertise privilégiée sur KONG , afin d’accompagner l’industrialisation des déploiements applicatifs conteneurisés et la gestion sécurisée des APIs. Missions Principales : Conception, mise en place et optimisation de pipelines CI/CD ; Automatisation des déploiements d’applications conteneurisées sur Kubernetes ; Administration et évolution des clusters Kubernetes (Ingress, RBAC, Secrets…) ; Mise en œuvre et administration de la solution KONG (gateway, plugins, sécurité, exposition des APIs) ; Intégration de KONG dans les chaînes CI/CD ; Mise en œuvre de stratégies de déploiement avancées (Rolling Update, Canary, Blue/Green) ; Participation au MCO des plateformes CI/CD, APIM et environnements Kubernetes.
Mission freelance
IT Quant – Python / GitLab
NEXORIS
Publiée le
Finance
6 mois
450 €
Paris, France
Notre client recherche un IT Quant – Python / GitLab / AWS (H/F) dans le cadre d'une longue mission. Au sein d’une équipe quantitative IT, la mission consiste à développer et maintenir des outils et librairies Python utilisés dans les environnements de calcul et d’analyse financière, avec un fort usage des workflows GitLab et des infrastructures cloud AWS. - Développer et maintenir des applications et librairies Python pour les besoins quantitatifs - Participer à l’industrialisation du code via les pipelines GitLab CI/CD - Contribuer à l’automatisation des processus de développement et de déploiement - Participer à l’intégration et à l’exploitation des solutions dans un environnement AWS - Collaborer avec les équipes IT et quantitatives pour améliorer les outils existants
Offre d'emploi
Database Engineer (H/F)
WINSIDE Technology
Publiée le
Amazon Redshift
Ansible
Azure
1 an
38k-43k €
370-400 €
Lille, Hauts-de-France
Contexte Le/La Database Engineer est garant de la performance, de la disponibilité et de l'intégrité des systèmes de gestion de bases de données de l’entreprise. Il/elle conçoit, déploie et maintient des architectures de données robustes, scalables et automatisées pour supporter les applications et l'exploitation des données métiers. En lien direct avec les équipes de l’IT, les Data Architects et les équipes de développement, il/elle participe activement à l’optimisation des requêtes, à la sécurisation des données, à la gestion du cycle de vie des bases et à la veille technologique sur les solutions de stockage. Missions Administration & Opérations Implémenter, configurer et maintenir les solutions de bases de données (SQL, NoSQL, Cloud-native). Assurer la haute disponibilité, les stratégies de sauvegarde et les plans de reprise d'activité (PCA/PRA). Contribuer au déploiement de standards de configuration conformes aux pratiques DevOps et à l'approche "Database as Code" Performance & Optimisation Surveiller les performances des bases de données via des outils de monitoring. Analyser et optimiser les requêtes complexes, l'indexation et le partitionnement des données. Proposer et mettre en oeuvre des mesures de tuning pour garantir des temps de réponse optimaux. Sécurité & Gouvernance des Données Administrer les politiques d'accès aux données et le chiffrement (Cloud & On-Premise). Automatiser la gestion des schémas et les processus de rafraîchissement d'environnements. S’assurer de la conformité des plateformes aux exigences RGPD et aux politiques de sécurité internes. Profil recherché Maîtrise des concepts de bases de données : modélisation (Merise, UML), SQL avancé, NoSQL, réplication, sharding, et intégration des changements de base de données dans les pipelines CI/CD. Expérience avec des outils et moteurs tels que : PostgreSQL, Oracle, Opensearch, Redis, Snowflake. Bonne compréhension des environnements hybrides (On-Prem / Cloud : AWS RDS, Azure SQL, Aiven). Connaissance des standards de gestion de données et de sécurité (Audit, chiffrement au repos et en transit). Pratique de l'automatisation (Terraform, Ansible, scripts shell). Connaissance d’au moins un langage de programmation courant (Python, Go, ou Java) pour le tooling DB. Bon niveau en administration Linux et Windows Server orientée performance (I/O, RAM, CPU). Compétences professionnelles : Être orienté vers l’amélioration continue, toujours à la recherche de nouvelles solutions pour optimiser les performances. Faire preuve d’autonomie et avoir une volonté constante de s'améliorer. Avoir un état d’esprit positif, axé sur la résolution de problèmes en proposant des solutions durables. Être en capacité de travailler sous pression (gestion d'incidents de production) tout en respectant les délais. Posséder une aisance en anglais, tant à l’écrit qu’à l’oral.
Offre d'emploi
Consultant Data – Analyst
VISIAN
Publiée le
Microsoft Excel
Microsoft Power BI
MySQL
1 an
40k-45k €
140-440 €
Lille, Hauts-de-France
Descriptif du poste Nous recherchons 1 Consultant Data – Analyst expérimenté pour accélérer la transformation data au sein du département Marketing Client. Il jouera un rôle clé dans l'étude de la connaissance client, et dans la propagation de celle-ci au sein de l'entreprise. Pour ce faire, il devra à la fois être doté d'une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique Produire des tableaux de bord, indicateurs clés et analyses décisionnelles Identifier des opportunités de croissance, d'optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Garantir la qualité, la fiabilité et la cohérence des données utilisées
Offre d'emploi
Senior DevOps / Développeur Full Stack (Python & AWS) – Nantes
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
CI/CD
Docker
1 an
45k-47k €
400-450 €
Nantes, Pays de la Loire
Contexte Dans le cadre du remplacement d’un collaborateur, vous intervenez sur deux produits dédiés à la garantie de la qualité de la production . Vous intégrez une équipe agile composée de 5 développeurs, 1 Product Owner et 1 Scrum Master , et participez aux travaux de développement, maintenance et évolution des applications. Mission Rôle complet sur le cycle de vie applicatif : conception, développement, déploiement et maintenance . Vous contribuez à des solutions robustes, scalables et sécurisées, avec une forte composante Back-End Python serverless sur AWS et des activités DevOps / Cloud AWS . Vous êtes également impliqué(e) dans une migration progressive d’un backend existant en PHP vers une nouvelle technologie, en assurant continuité de service , qualité du code et performance .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5155 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois