Files
everything-claude-code/docs/tr/skills/python-testing/SKILL.md
Berkcan Gümüşışık fd2a8edb53 Add Turkish (tr) docs and update README (#744)
* Add Turkish (tr) docs and update README

Add a full set of Turkish documentation under docs/tr (agents, changelog, CLAUDE guide, contributing, code of conduct, and many agents/commands/skills/rules files). Update README to include a link to the Turkish docs and increment the supported language count from 5 to 6. This commit adds localized guidance and references to help Turkish-speaking contributors and users.

* Update docs/tr/TROUBLESHOOTING.md

Co-authored-by: cubic-dev-ai[bot] <191113872+cubic-dev-ai[bot]@users.noreply.github.com>

* Update docs/tr/README.md

Co-authored-by: cubic-dev-ai[bot] <191113872+cubic-dev-ai[bot]@users.noreply.github.com>

* docs(tr): fix license link and update readmes

Update Turkish docs: change license badge link to point to repository root (../../LICENSE), increment displayed language count from 5 to 6, and remove two outdated related links from docs/tr/examples/README.md to keep references accurate.

* Update docs/tr/commands/instinct-import.md

Co-authored-by: cubic-dev-ai[bot] <191113872+cubic-dev-ai[bot]@users.noreply.github.com>

* Update docs/tr/commands/checkpoint.md

Co-authored-by: cubic-dev-ai[bot] <191113872+cubic-dev-ai[bot]@users.noreply.github.com>

---------

Co-authored-by: cubic-dev-ai[bot] <191113872+cubic-dev-ai[bot]@users.noreply.github.com>
2026-03-22 15:37:04 -07:00

20 KiB
Raw Permalink Blame History

name, description, origin
name description origin
python-testing pytest, TDD metodolojisi, fixture'lar, mocking, parametrizasyon ve coverage gereksinimleri kullanarak Python test stratejileri. ECC

Python Test Desenleri

pytest, TDD metodolojisi ve en iyi uygulamalar kullanarak Python uygulamaları için kapsamlı test stratejileri.

Ne Zaman Etkinleştirmeli

  • Yeni Python kodu yazarken (TDD'yi takip et: red, green, refactor)
  • Python projeleri için test suite'leri tasarlarken
  • Python test coverage'ını gözden geçirirken
  • Test altyapısını kurarken

Temel Test Felsefesi

Test-Driven Development (TDD)

Her zaman TDD döngüsünü takip edin:

  1. RED: İstenen davranış için başarısız bir test yaz
  2. GREEN: Testi geçirmek için minimal kod yaz
  3. REFACTOR: Testleri yeşil tutarken kodu iyileştir
# Adım 1: Başarısız test yaz (RED)
def test_add_numbers():
    result = add(2, 3)
    assert result == 5

# Adım 2: Minimal implementasyon yaz (GREEN)
def add(a, b):
    return a + b

# Adım 3: Gerekirse refactor et (REFACTOR)

Coverage Gereksinimleri

  • Hedef: 80%+ kod coverage'ı
  • Kritik yollar: 100% coverage gereklidir
  • Coverage'ı ölçmek için pytest --cov kullanın
pytest --cov=mypackage --cov-report=term-missing --cov-report=html

pytest Temelleri

Temel Test Yapısı

import pytest

def test_addition():
    """Temel toplama testi."""
    assert 2 + 2 == 4

def test_string_uppercase():
    """String büyük harf yapma testi."""
    text = "hello"
    assert text.upper() == "HELLO"

def test_list_append():
    """Liste append testi."""
    items = [1, 2, 3]
    items.append(4)
    assert 4 in items
    assert len(items) == 4

Assertion'lar

# Eşitlik
assert result == expected

# Eşitsizlik
assert result != unexpected

# Doğruluk değeri
assert result  # Truthy
assert not result  # Falsy
assert result is True  # Tam olarak True
assert result is False  # Tam olarak False
assert result is None  # Tam olarak None

# Üyelik
assert item in collection
assert item not in collection

# Karşılaştırmalar
assert result > 0
assert 0 <= result <= 100

# Tip kontrolü
assert isinstance(result, str)

# Exception testi (tercih edilen yaklaşım)
with pytest.raises(ValueError):
    raise ValueError("error message")

# Exception mesajını kontrol et
with pytest.raises(ValueError, match="invalid input"):
    raise ValueError("invalid input provided")

# Exception niteliklerini kontrol et
with pytest.raises(ValueError) as exc_info:
    raise ValueError("error message")
assert str(exc_info.value) == "error message"

Fixture'lar

Temel Fixture Kullanımı

import pytest

@pytest.fixture
def sample_data():
    """Örnek veri sağlayan fixture."""
    return {"name": "Alice", "age": 30}

def test_sample_data(sample_data):
    """Fixture kullanan test."""
    assert sample_data["name"] == "Alice"
    assert sample_data["age"] == 30

Setup/Teardown ile Fixture

@pytest.fixture
def database():
    """Setup ve teardown ile fixture."""
    # Setup
    db = Database(":memory:")
    db.create_tables()
    db.insert_test_data()

    yield db  # Teste sağla

    # Teardown
    db.close()

def test_database_query(database):
    """Veritabanı operasyonlarını test et."""
    result = database.query("SELECT * FROM users")
    assert len(result) > 0

Fixture Scope'ları

# Function scope (varsayılan) - her test için çalışır
@pytest.fixture
def temp_file():
    with open("temp.txt", "w") as f:
        yield f
    os.remove("temp.txt")

# Module scope - modül başına bir kez çalışır
@pytest.fixture(scope="module")
def module_db():
    db = Database(":memory:")
    db.create_tables()
    yield db
    db.close()

# Session scope - test oturumu başına bir kez çalışır
@pytest.fixture(scope="session")
def shared_resource():
    resource = ExpensiveResource()
    yield resource
    resource.cleanup()

Parametreli Fixture

@pytest.fixture(params=[1, 2, 3])
def number(request):
    """Parametreli fixture."""
    return request.param

def test_numbers(number):
    """Test her parametre için 3 kez çalışır."""
    assert number > 0

Birden Fazla Fixture Kullanma

@pytest.fixture
def user():
    return User(id=1, name="Alice")

@pytest.fixture
def admin():
    return User(id=2, name="Admin", role="admin")

def test_user_admin_interaction(user, admin):
    """Birden fazla fixture kullanan test."""
    assert admin.can_manage(user)

Autouse Fixture'ları

@pytest.fixture(autouse=True)
def reset_config():
    """Her testten önce otomatik olarak çalışır."""
    Config.reset()
    yield
    Config.cleanup()

def test_without_fixture_call():
    # reset_config otomatik olarak çalışır
    assert Config.get_setting("debug") is False

Paylaşılan Fixture'lar için Conftest.py

# tests/conftest.py
import pytest

@pytest.fixture
def client():
    """Tüm testler için paylaşılan fixture."""
    app = create_app(testing=True)
    with app.test_client() as client:
        yield client

@pytest.fixture
def auth_headers(client):
    """API testi için auth header'ları oluştur."""
    response = client.post("/api/login", json={
        "username": "test",
        "password": "test"
    })
    token = response.json["token"]
    return {"Authorization": f"Bearer {token}"}

Parametrizasyon

Temel Parametrizasyon

@pytest.mark.parametrize("input,expected", [
    ("hello", "HELLO"),
    ("world", "WORLD"),
    ("PyThOn", "PYTHON"),
])
def test_uppercase(input, expected):
    """Test farklı input'larla 3 kez çalışır."""
    assert input.upper() == expected

Birden Fazla Parametre

@pytest.mark.parametrize("a,b,expected", [
    (2, 3, 5),
    (0, 0, 0),
    (-1, 1, 0),
    (100, 200, 300),
])
def test_add(a, b, expected):
    """Birden fazla input ile toplama testi."""
    assert add(a, b) == expected

ID'li Parametrizasyon

@pytest.mark.parametrize("input,expected", [
    ("valid@email.com", True),
    ("invalid", False),
    ("@no-domain.com", False),
], ids=["valid-email", "missing-at", "missing-domain"])
def test_email_validation(input, expected):
    """Okunabilir test ID'leri ile email validation testi."""
    assert is_valid_email(input) is expected

Parametreli Fixture'lar

@pytest.fixture(params=["sqlite", "postgresql", "mysql"])
def db(request):
    """Birden fazla veritabanı backend'ine karşı test."""
    if request.param == "sqlite":
        return Database(":memory:")
    elif request.param == "postgresql":
        return Database("postgresql://localhost/test")
    elif request.param == "mysql":
        return Database("mysql://localhost/test")

def test_database_operations(db):
    """Test her veritabanı için 3 kez çalışır."""
    result = db.query("SELECT 1")
    assert result is not None

Marker'lar ve Test Seçimi

Özel Marker'lar

# Yavaş testleri işaretle
@pytest.mark.slow
def test_slow_operation():
    time.sleep(5)

# Entegrasyon testlerini işaretle
@pytest.mark.integration
def test_api_integration():
    response = requests.get("https://api.example.com")
    assert response.status_code == 200

# Unit testleri işaretle
@pytest.mark.unit
def test_unit_logic():
    assert calculate(2, 3) == 5

Belirli Testleri Çalıştırma

# Sadece hızlı testleri çalıştır
pytest -m "not slow"

# Sadece entegrasyon testlerini çalıştır
pytest -m integration

# Entegrasyon veya yavaş testleri çalıştır
pytest -m "integration or slow"

# Unit olarak işaretlenmiş ama yavaş olmayan testleri çalıştır
pytest -m "unit and not slow"

pytest.ini'de Marker'ları Yapılandırma

[pytest]
markers =
    slow: marks tests as slow
    integration: marks tests as integration tests
    unit: marks tests as unit tests
    django: marks tests as requiring Django

Mocking ve Patching

Fonksiyonları Mocking

from unittest.mock import patch, Mock

@patch("mypackage.external_api_call")
def test_with_mock(api_call_mock):
    """Mock'lanmış harici API ile test."""
    api_call_mock.return_value = {"status": "success"}

    result = my_function()

    api_call_mock.assert_called_once()
    assert result["status"] == "success"

Dönüş Değerlerini Mocking

@patch("mypackage.Database.connect")
def test_database_connection(connect_mock):
    """Mock'lanmış veritabanı bağlantısı ile test."""
    connect_mock.return_value = MockConnection()

    db = Database()
    db.connect()

    connect_mock.assert_called_once_with("localhost")

Exception'ları Mocking

@patch("mypackage.api_call")
def test_api_error_handling(api_call_mock):
    """Mock'lanmış exception ile hata işleme testi."""
    api_call_mock.side_effect = ConnectionError("Network error")

    with pytest.raises(ConnectionError):
        api_call()

    api_call_mock.assert_called_once()

Context Manager'ları Mocking

@patch("builtins.open", new_callable=mock_open)
def test_file_reading(mock_file):
    """Mock'lanmış open ile dosya okuma testi."""
    mock_file.return_value.read.return_value = "file content"

    result = read_file("test.txt")

    mock_file.assert_called_once_with("test.txt", "r")
    assert result == "file content"

Autospec Kullanma

@patch("mypackage.DBConnection", autospec=True)
def test_autospec(db_mock):
    """API yanlış kullanımını yakalamak için autospec ile test."""
    db = db_mock.return_value
    db.query("SELECT * FROM users")

    # DBConnection query metodu yoksa bu başarısız olur
    db_mock.assert_called_once()

Mock Class Instance'ları

class TestUserService:
    @patch("mypackage.UserRepository")
    def test_create_user(self, repo_mock):
        """Mock'lanmış repository ile kullanıcı oluşturma testi."""
        repo_mock.return_value.save.return_value = User(id=1, name="Alice")

        service = UserService(repo_mock.return_value)
        user = service.create_user(name="Alice")

        assert user.name == "Alice"
        repo_mock.return_value.save.assert_called_once()

Mock Property

@pytest.fixture
def mock_config():
    """Property'li bir mock oluştur."""
    config = Mock()
    type(config).debug = PropertyMock(return_value=True)
    type(config).api_key = PropertyMock(return_value="test-key")
    return config

def test_with_mock_config(mock_config):
    """Mock'lanmış config property'leri ile test."""
    assert mock_config.debug is True
    assert mock_config.api_key == "test-key"

Asenkron Kodu Test Etme

pytest-asyncio ile Asenkron Testler

import pytest

@pytest.mark.asyncio
async def test_async_function():
    """Asenkron fonksiyon testi."""
    result = await async_add(2, 3)
    assert result == 5

@pytest.mark.asyncio
async def test_async_with_fixture(async_client):
    """Asenkron fixture ile asenkron test."""
    response = await async_client.get("/api/users")
    assert response.status_code == 200

Asenkron Fixture

@pytest.fixture
async def async_client():
    """Asenkron test client sağlayan asenkron fixture."""
    app = create_app()
    async with app.test_client() as client:
        yield client

@pytest.mark.asyncio
async def test_api_endpoint(async_client):
    """Asenkron fixture kullanan test."""
    response = await async_client.get("/api/data")
    assert response.status_code == 200

Asenkron Fonksiyonları Mocking

@pytest.mark.asyncio
@patch("mypackage.async_api_call")
async def test_async_mock(api_call_mock):
    """Mock ile asenkron fonksiyon testi."""
    api_call_mock.return_value = {"status": "ok"}

    result = await my_async_function()

    api_call_mock.assert_awaited_once()
    assert result["status"] == "ok"

Exception'ları Test Etme

Beklenen Exception'ları Test Etme

def test_divide_by_zero():
    """Sıfıra bölmenin ZeroDivisionError raise ettiğini test et."""
    with pytest.raises(ZeroDivisionError):
        divide(10, 0)

def test_custom_exception():
    """Mesaj ile özel exception testi."""
    with pytest.raises(ValueError, match="invalid input"):
        validate_input("invalid")

Exception Niteliklerini Test Etme

def test_exception_with_details():
    """Özel niteliklerle exception testi."""
    with pytest.raises(CustomError) as exc_info:
        raise CustomError("error", code=400)

    assert exc_info.value.code == 400
    assert "error" in str(exc_info.value)

Yan Etkileri Test Etme

Dosya Operasyonlarını Test Etme

import tempfile
import os

def test_file_processing():
    """Geçici dosya ile dosya işleme testi."""
    with tempfile.NamedTemporaryFile(mode='w', delete=False, suffix='.txt') as f:
        f.write("test content")
        temp_path = f.name

    try:
        result = process_file(temp_path)
        assert result == "processed: test content"
    finally:
        os.unlink(temp_path)

pytest'in tmp_path Fixture'ı ile Test Etme

def test_with_tmp_path(tmp_path):
    """pytest'in built-in geçici yol fixture'ını kullanarak test."""
    test_file = tmp_path / "test.txt"
    test_file.write_text("hello world")

    result = process_file(str(test_file))
    assert result == "hello world"
    # tmp_path otomatik olarak temizlenir

tmpdir Fixture ile Test Etme

def test_with_tmpdir(tmpdir):
    """pytest'in tmpdir fixture'ını kullanarak test."""
    test_file = tmpdir.join("test.txt")
    test_file.write("data")

    result = process_file(str(test_file))
    assert result == "data"

Test Organizasyonu

Dizin Yapısı

tests/
├── conftest.py                 # Paylaşılan fixture'lar
├── __init__.py
├── unit/                       # Unit testler
│   ├── __init__.py
│   ├── test_models.py
│   ├── test_utils.py
│   └── test_services.py
├── integration/                # Entegrasyon testleri
│   ├── __init__.py
│   ├── test_api.py
│   └── test_database.py
└── e2e/                        # End-to-end testler
    ├── __init__.py
    └── test_user_flow.py

Test Class'ları

class TestUserService:
    """İlgili testleri bir class'ta grupla."""

    @pytest.fixture(autouse=True)
    def setup(self):
        """Bu class'taki her testten önce çalışan setup."""
        self.service = UserService()

    def test_create_user(self):
        """Kullanıcı oluşturma testi."""
        user = self.service.create_user("Alice")
        assert user.name == "Alice"

    def test_delete_user(self):
        """Kullanıcı silme testi."""
        user = User(id=1, name="Bob")
        self.service.delete_user(user)
        assert not self.service.user_exists(1)

En İyi Uygulamalar

YAPIN

  • TDD'yi takip edin: Koddan önce testleri yazın (red-green-refactor)
  • Bir şeyi test edin: Her test tek bir davranışı doğrulamalı
  • ıklayıcı isimler kullanın: test_user_login_with_invalid_credentials_fails
  • Fixture'ları kullanın: Tekrarı fixture'larla ortadan kaldırın
  • Harici bağımlılıkları mock'layın: Harici servislere bağımlı olmayın
  • Kenar durumları test edin: Boş input'lar, None değerleri, sınır koşulları
  • %80+ coverage hedefleyin: Kritik yollara odaklanın
  • Testleri hızlı tutun: Yavaş testleri ayırmak için marker'lar kullanın

YAPMAYIN

  • İmplementasyonu test etmeyin: Davranışı test edin, iç yapıyı değil
  • Testlerde karmaşık koşullar kullanmayın: Testleri basit tutun
  • Test hatalarını göz ardı etmeyin: Tüm testler geçmeli
  • Third-party kodu test etmeyin: Kütüphanelerin çalıştığına güvenin
  • Testler arası state paylaşmayın: Testler bağımsız olmalı
  • Testlerde exception yakalamayın: pytest.raises kullanın
  • Print statement'ları kullanmayın: Assertion'ları ve pytest çıktısını kullanın
  • Çok kırılgan testler yazmayın: Aşırı spesifik mock'lardan kaçının

Yaygın Desenler

API Endpoint'lerini Test Etme (FastAPI/Flask)

@pytest.fixture
def client():
    app = create_app(testing=True)
    return app.test_client()

def test_get_user(client):
    response = client.get("/api/users/1")
    assert response.status_code == 200
    assert response.json["id"] == 1

def test_create_user(client):
    response = client.post("/api/users", json={
        "name": "Alice",
        "email": "alice@example.com"
    })
    assert response.status_code == 201
    assert response.json["name"] == "Alice"

Veritabanı Operasyonlarını Test Etme

@pytest.fixture
def db_session():
    """Test veritabanı oturumu oluştur."""
    session = Session(bind=engine)
    session.begin_nested()
    yield session
    session.rollback()
    session.close()

def test_create_user(db_session):
    user = User(name="Alice", email="alice@example.com")
    db_session.add(user)
    db_session.commit()

    retrieved = db_session.query(User).filter_by(name="Alice").first()
    assert retrieved.email == "alice@example.com"

Class Metodlarını Test Etme

class TestCalculator:
    @pytest.fixture
    def calculator(self):
        return Calculator()

    def test_add(self, calculator):
        assert calculator.add(2, 3) == 5

    def test_divide_by_zero(self, calculator):
        with pytest.raises(ZeroDivisionError):
            calculator.divide(10, 0)

pytest Yapılandırması

pytest.ini

[pytest]
testpaths = tests
python_files = test_*.py
python_classes = Test*
python_functions = test_*
addopts =
    --strict-markers
    --disable-warnings
    --cov=mypackage
    --cov-report=term-missing
    --cov-report=html
markers =
    slow: marks tests as slow
    integration: marks tests as integration tests
    unit: marks tests as unit tests

pyproject.toml

[tool.pytest.ini_options]
testpaths = ["tests"]
python_files = ["test_*.py"]
python_classes = ["Test*"]
python_functions = ["test_*"]
addopts = [
    "--strict-markers",
    "--cov=mypackage",
    "--cov-report=term-missing",
    "--cov-report=html",
]
markers = [
    "slow: marks tests as slow",
    "integration: marks tests as integration tests",
    "unit: marks tests as unit tests",
]

Testleri Çalıştırma

# Tüm testleri çalıştır
pytest

# Belirli dosyayı çalıştır
pytest tests/test_utils.py

# Belirli testi çalıştır
pytest tests/test_utils.py::test_function

# Verbose çıktı ile çalıştır
pytest -v

# Coverage ile çalıştır
pytest --cov=mypackage --cov-report=html

# Sadece hızlı testleri çalıştır
pytest -m "not slow"

# İlk hataya kadar çalıştır
pytest -x

# N hataya kadar çalıştır
pytest --maxfail=3

# Son başarısız testleri çalıştır
pytest --lf

# Pattern ile testleri çalıştır
pytest -k "test_user"

# Hatada debugger ile çalıştır
pytest --pdb

Hızlı Referans

Desen Kullanım
pytest.raises() Beklenen exception'ları test et
@pytest.fixture() Yeniden kullanılabilir test fixture'ları oluştur
@pytest.mark.parametrize() Birden fazla input ile testleri çalıştır
@pytest.mark.slow Yavaş testleri işaretle
pytest -m "not slow" Yavaş testleri atla
@patch() Fonksiyonları ve class'ları mock'la
tmp_path fixture Otomatik geçici dizin
pytest --cov Coverage raporu oluştur
assert Basit ve okunabilir assertion'lar

Unutmayın: Testler de koddur. Temiz, okunabilir ve bakımı kolay tutun. İyi testler hata yakalar; harika testler hataları önler.