Solusi software AI kustom untuk bisnis Anda. Lihat Layanan →

Kirim AI

Panduan Lengkap Google Cloud Natural Language API Python 2025

Ingin menguasai analisis teks canggih? Tutorial Google Cloud Natural Language API dengan Python ini adalah panduan lengkap Anda (2025). Pelajari langkah demi langkah cara setup API, melakukan analisis sentimen, ekstraksi entitas, analisis sintaksis, dan klasifikasi konten. Dilengkapi contoh kode Python praktis.

0
5
Panduan Lengkap Google Cloud Natural Language API Python 2025

Memanfaatkan kekuatan pemrosesan bahasa alami (Natural Language Processing - NLP) telah menjadi kunci bagi banyak bisnis dan pengembang untuk menggali wawasan dari data teks yang melimpah. Google Cloud Natural Language AI API adalah layanan canggih yang memungkinkan Anda melakukan berbagai tugas analisis teks, mulai dari memahami sentimen pelanggan hingga mengklasifikasikan dokumen secara otomatis. Tutorial ini akan memandu Anda langkah demi langkah dalam menggunakan Google Cloud Natural Language API dengan Python, menyajikan contoh kode praktis untuk setiap fungsi utama. Anda akan mempelajari cara melakukan analisis sentimen, ekstraksi entitas, analisis sintaksis, dan klasifikasi konten, sehingga membuka potensi besar dari data teks Anda.

Prasyarat Sebelum Memulai

Sebelum kita mendalami kode, pastikan Anda telah memenuhi prasyarat berikut agar dapat mengikuti tutorial Google Cloud Natural Language API ini dengan lancar:

  • Akun Google Cloud Platform (GCP) Aktif: Anda memerlukan akun GCP untuk mengakses API. Google sering menawarkan kredit gratis (free tier) bagi pengguna baru, yang cukup memadai untuk mencoba API ini.
  • Pengetahuan Dasar Python: Tutorial ini menggunakan Python. Pemahaman dasar tentang sintaksis dan konsep pemrograman Python akan sangat membantu.
  • Lingkungan Python Terinstal: Pastikan Python (idealnya versi 3.x) dan manajer paket pip terinstal di sistem Anda.

Langkah 1: Pengaturan Google Cloud Natural Language API & Lingkungan Anda

Langkah pertama adalah menyiapkan proyek Google Cloud Anda dan mengonfigurasi autentikasi agar aplikasi Python dapat berkomunikasi dengan API. Ini merupakan bagian krusial dari proses setup google cloud natural language api.

Membuat Proyek Baru di Google Cloud Console

  1. Masuk ke Google Cloud Console.
  2. Klik pemilih proyek di bagian atas halaman (biasanya menampilkan nama proyek terakhir Anda atau "Select a project").
  3. Klik "New Project".
  4. Berikan nama deskriptif untuk proyek Anda (misalnya, "NLP API Tutorial Project"), lalu klik "Create".

Mengaktifkan Natural Language API untuk Proyek

  1. Pastikan proyek yang baru Anda buat telah dipilih.
  2. Pada menu navigasi sebelah kiri, buka "APIs & Services" > "Library".
  3. Di kotak pencarian, ketik "Cloud Natural Language API" dan tekan Enter.
  4. Klik hasil "Cloud Natural Language API".
  5. Klik tombol "Enable". Proses ini mungkin memerlukan beberapa saat.

Konfigurasi Kredensial Autentikasi: Membuat Kunci Akun Layanan

Agar aplikasi Anda dapat mengakses API secara aman, Anda perlu membuat kunci akun layanan (service account key):

  1. Pada menu navigasi, buka "APIs & Services" > "Credentials".
  2. Klik "+ CREATE CREDENTIALS" dan pilih "Service account".
  3. Berikan nama untuk akun layanan Anda (misalnya, "nlp-api-user"), deskripsi opsional, lalu klik "CREATE AND CONTINUE".
  4. Untuk peran (Role), pilih peran yang sesuai. Sebagai permulaan, Anda bisa memilih "Project" > "Owner" atau peran yang lebih spesifik seperti "Cloud Natural Language API User". Klik "CONTINUE".
  5. Anda dapat melewati langkah "Grant users access to this service account" untuk saat ini dan klik "DONE".
  6. Kembali ke halaman "Credentials", temukan akun layanan yang baru saja Anda buat di bagian "Service Accounts". Klik alamat email akun layanan tersebut.
  7. Pilih tab "KEYS".
  8. Klik "ADD KEY" dan pilih "Create new key".
  9. Pilih tipe kunci "JSON" dan klik "CREATE". File kunci JSON akan otomatis terunduh ke komputer Anda.

Penting: Jaga kerahasiaan file kunci JSON ini! File ini berisi kredensial yang memberikan akses ke proyek Google Cloud Anda. Cara paling umum dan aman untuk menggunakan kunci ini adalah dengan mengatur variabel lingkungan GOOGLE_APPLICATION_CREDENTIALS agar menunjuk ke path file JSON yang baru saja Anda unduh. Contohnya, di terminal Linux/macOS:

export GOOGLE_APPLICATION_CREDENTIALS="/path/to/your/keyfile.json"

Atau di Command Prompt Windows:

set GOOGLE_APPLICATION_CREDENTIALS="C:\path\to\your\keyfile.json"

Pastikan untuk mengganti /path/to/your/keyfile.json dengan path sebenarnya ke file kunci Anda.

Langkah 2: Instalasi Library Klien Google Cloud NLP API Python

Setelah lingkungan dan autentikasi siap, langkah berikutnya adalah menginstal library klien Python yang disediakan oleh Google. Library ini sangat mempermudah interaksi dengan Natural Language API, menjadikannya langkah penting untuk menggunakan google cloud nlp api python.

Menginstal google-cloud-language

Buka terminal atau command prompt Anda dan jalankan perintah berikut:

pip install google-cloud-language

Library ini berisi semua fungsi yang diperlukan untuk memanggil berbagai endpoint Natural Language API dari kode Python Anda, menyederhanakan proses integrasi.

Langkah 3: Melakukan Analisis Sentimen

Salah satu fitur paling populer dari Natural Language API adalah analisis sentimen. Fitur ini bertujuan menentukan sikap emosional (positif, negatif, netral) yang diekspresikan dalam sebuah teks. Ini sangat berguna untuk menganalisis ulasan pelanggan, umpan balik media sosial, atau artikel berita.

Konsep Dasar Analisis Sentimen

Saat melakukan analisis sentimen google cloud, API akan mengembalikan dua nilai utama:

  • Skor (Score): Angka antara -1.0 (sangat negatif) dan 1.0 (sangat positif), dengan 0 menunjukkan sentimen netral.
  • Magnitude: Angka non-negatif yang menunjukkan kekuatan emosi keseluruhan dalam teks, terlepas dari apakah sentimennya positif atau negatif. Teks yang lebih panjang atau memiliki emosi yang lebih kuat cenderung memiliki magnitude yang lebih tinggi.

Contoh Kode Python: Analisis Sentimen Teks

Berikut adalah contoh kode python google nlp api untuk menganalisis sentimen suatu teks:


from google.cloud import language_v1

def analyze_text_sentiment(text_content):
    """
    Menganalisis sentimen dalam string teks.

    Args:
      text_content: String teks yang akan dianalisis.
    """

    client = language_v1.LanguageServiceClient()

    # Pastikan teks dikirim sebagai dokumen
    document = language_v1.Document(
        content=text_content, type_=language_v1.Document.Type.PLAIN_TEXT
    )

    # Panggil API untuk analisis sentimen
    response = client.analyze_sentiment(
        request={"document": document, "encoding_type": language_v1.EncodingType.UTF8}
    )

    # Dapatkan sentimen keseluruhan dokumen
    sentiment = response.document_sentiment
    print(f"Teks: {text_content}")
    print(f"Sentimen Skor: {sentiment.score:.2f}")
    print(f"Sentimen Magnitude: {sentiment.magnitude:.2f}")

    # Opsional: Analisis sentimen per kalimat
    # print("\nAnalisis Per Kalimat:")
    # for sentence in response.sentences:
    #     print(f"  Kalimat: '{sentence.text.content}'")
    #     print(f"    Skor: {sentence.sentiment.score:.2f}")
    #     print(f"    Magnitude: {sentence.sentiment.magnitude:.2f}")

# Contoh penggunaan
text_positif = "Saya sangat senang dengan layanan pelanggan yang cepat dan ramah."
text_negatif = "Kualitas produknya buruk dan pengirimannya sangat lambat."
text_netral = "Paketnya sudah sampai kemarin sore."

analyze_text_sentiment(text_positif)
print("-" * 20)
analyze_text_sentiment(text_negatif)
print("-" * 20)
analyze_text_sentiment(text_netral)

Memahami Hasil Analisis Sentimen

Setelah menjalankan kode di atas, Anda akan melihat output yang menunjukkan skor dan magnitude untuk setiap contoh teks:

  • Untuk text_positif, skor akan mendekati 1.0, menandakan sentimen positif yang kuat. Magnitude juga akan relatif tinggi karena ekspresi emosi yang jelas.
  • Untuk text_negatif, skor akan mendekati -1.0, menandakan sentimen negatif yang kuat. Magnitude juga kemungkinan besar tinggi.
  • Untuk text_netral, skor akan mendekati 0.0, menandakan kurangnya sentimen yang jelas. Magnitude cenderung lebih rendah.

Dengan memahami skor dan magnitude ini, Anda dapat mengukur opini publik atau umpan balik pelanggan secara otomatis, menjadikannya alat yang ampuh untuk riset pasar dan pemantauan merek.

Langkah 4: Ekstraksi Entitas dari Teks

Selanjutnya, mari kita pelajari tentang ekstraksi entitas. Ini adalah proses mengidentifikasi dan mengklasifikasikan entitas yang disebutkan dalam teks, seperti nama orang, organisasi, lokasi, tanggal, produk, dan lainnya. Fitur ini sangat berguna untuk mengekstrak informasi kunci dari volume teks yang besar secara efisien.

Konsep Dasar Ekstraksi Entitas

Saat melakukan ekstraksi entitas google cloud, API akan mengidentifikasi entitas dan memberikan informasi seperti:

  • Nama Entitas: Teks aktual yang merujuk pada entitas (misalnya, "Google", "Jakarta", "Presiden Joko Widodo").
  • Tipe Entitas: Kategori entitas (misalnya, ORGANIZATION, LOCATION, PERSON, EVENT).
  • Salience: Skor antara 0 dan 1.0 yang menunjukkan seberapa penting atau relevan entitas tersebut dalam konteks keseluruhan teks. Semakin tinggi nilainya, semakin sentral entitas tersebut.
  • Metadata: Informasi tambahan, seperti URL Wikipedia jika entitas tersebut dikenal luas oleh Google Knowledge Graph.

Contoh Kode Python: Ekstraksi Entitas

Berikut adalah contoh kode python google nlp api untuk melakukan ekstraksi entitas:


from google.cloud import language_v1

def analyze_text_entities(text_content):
    """
    Menganalisis entitas dalam string teks.

    Args:
      text_content: String teks yang akan dianalisis.
    """
    client = language_v1.LanguageServiceClient()
    document = language_v1.Document(
        content=text_content, type_=language_v1.Document.Type.PLAIN_TEXT
    )

    # Panggil API untuk ekstraksi entitas
    response = client.analyze_entities(
        request={"document": document, "encoding_type": language_v1.EncodingType.UTF8}
    )

    print(f"Teks: {text_content}\n")
    print("Entitas yang Ditemukan:")
    for entity in response.entities:
        print(f"- Nama: {entity.name}")
        print(f"  Tipe: {language_v1.Entity.Type(entity.type_).name}")
        print(f"  Salience: {entity.salience:.3f}")
        # Cetak metadata jika tersedia (misal: URL Wikipedia)
        for metadata_name, metadata_value in entity.metadata.items():
            if metadata_name == 'wikipedia_url':
                 print(f"  Metadata ({metadata_name}): {metadata_value}")

# Contoh penggunaan
text_artikel = "Sundar Pichai, CEO Google, mengumumkan produk baru dalam acara Google I/O di Mountain View, California pada Mei 2023."
analyze_text_entities(text_artikel)

Menginterpretasi Hasil Ekstraksi Entitas

Output dari kode di atas akan mencantumkan entitas yang terdeteksi beserta tipenya dan skor salience. Contohnya:

  • "Sundar Pichai" (PERSON)
  • "CEO" (TITLE - dapat juga dikenali sebagai bagian dari PERSON atau ORGANIZATION tergantung konteks)
  • "Google" (ORGANIZATION)
  • "Google I/O" (EVENT)
  • "Mountain View" (LOCATION)
  • "California" (LOCATION)
  • "Mei 2023" (DATE)

Skor Salience menunjukkan entitas mana yang paling dominan dalam teks tersebut. Dalam contoh ini, "Sundar Pichai" dan "Google" kemungkinan akan memiliki salience yang tinggi.

Langkah 5: Memahami Struktur Kalimat: Analisis Sintaksis

Analisis sintaksis adalah fitur yang lebih mendalam, berfungsi memecah teks menjadi komponen linguistiknya. Ini mencakup tokenisasi (memisahkan kata dan tanda baca), penandaan Part-of-Speech (POS tagging - mengidentifikasi jenis kata seperti kata benda, kata kerja, dll.), dan analisis dependensi (memahami hubungan gramatikal antar kata). Fitur ini membantu mesin 'memahami' struktur gramatikal sebuah kalimat.

Konsep Analisis Sintaksis: Token, POS Tag, dan Pohon Dependensi

  • Token: Unit dasar teks, biasanya berupa kata atau tanda baca.
  • POS Tag: Label gramatikal untuk setiap token (misalnya, NOUN, VERB, ADJ, PUNCT).
  • Pohon Dependensi (Dependency Tree): Representasi hubungan gramatikal antar token dalam sebuah kalimat. Ini menunjukkan, misalnya, kata kerja mana yang menjadi subjeknya, objek mana yang dimiliki kata kerja, dan sebagainya.

Contoh Kode Python: Analisis Sintaksis Teks

Berikut contoh kode python google nlp api untuk melakukan analisis sintaksis google cloud:


from google.cloud import language_v1

def analyze_text_syntax(text_content):
    """
    Menganalisis sintaksis dalam string teks.

    Args:
      text_content: String teks yang akan dianalisis.
    """
    client = language_v1.LanguageServiceClient()
    document = language_v1.Document(
        content=text_content, type_=language_v1.Document.Type.PLAIN_TEXT
    )

    # Panggil API untuk analisis sintaksis
    response = client.analyze_syntax(
        request={"document": document, "encoding_type": language_v1.EncodingType.UTF8}
    )

    print(f"Teks: {text_content}\n")
    print("Token dan Analisis Sintaksis:")
    # Iterasi melalui token yang terdeteksi
    for token in response.tokens:
        text_span = token.text
        print(f"- Token: '{text_span.content}'")
        # Dapatkan Part of Speech (POS) tag
        part_of_speech = token.part_of_speech
        print(f"  POS Tag: {language_v1.PartOfSpeech.Tag(part_of_speech.tag).name}")
        # Dapatkan informasi dependensi
        dependency_edge = token.dependency_edge
        # Indeks token induk (head token) dalam kalimat
        print(f"  Indeks Head Token: {dependency_edge.head_token_index}") 
        # Label hubungan dependensi ke token induk
        print(f"  Label Dependensi: {language_v1.DependencyEdge.Label(dependency_edge.label).name}")

# Contoh penggunaan
text_kalimat = "Kucing hitam itu melompat tinggi."
analyze_text_syntax(text_kalimat)

Membaca Hasil Analisis Sintaksis

Output akan menampilkan setiap token beserta POS tag dan informasi dependensinya. Misalnya, untuk token "melompat":

  • POS Tag akan menjadi `VERB`.
  • `Indeks Head Token` kemungkinan akan menunjuk ke indeks token "kucing" (yang berfungsi sebagai subjek dari kata kerja "melompat").
  • `Label Dependensi` mungkin `NSUBJ` (nominal subject) atau label serupa yang menunjukkan hubungan subjek-kata kerja antara "kucing" dan "melompat".

Analisis ini berguna untuk pemahaman bahasa yang lebih mendalam, seperti dalam membangun chatbot yang lebih canggih, sistem terjemahan mesin, atau alat peringkasan otomatis.

Langkah 6: Klasifikasi Konten Otomatis

Fitur penting lainnya adalah klasifikasi konten, yang secara otomatis menetapkan label kategori ke seluruh dokumen teks. Google Natural Language API menggunakan model pra-terlatih yang dapat mengklasifikasikan teks ke dalam ratusan kategori yang telah ditentukan.

Konsep Dasar Klasifikasi Konten

Saat melakukan klasifikasi konten google cloud, API akan mencoba mencocokkan konten teks Anda dengan satu atau lebih kategori dari taksonomi yang luas (misalnya, `/Arts & Entertainment`, `/Business & Industrial/Finance`, `/Science/Computer Science`). Setiap kategori yang cocok akan disertai skor keyakinan (confidence score) yang menunjukkan seberapa yakin model terhadap klasifikasi tersebut.

Contoh Kode Python: Klasifikasi Topik Teks

Berikut contoh kode python google nlp api untuk klasifikasi konten:


from google.cloud import language_v1

def classify_text_content(text_content):
    """
    Mengklasifikasikan konten dalam string teks.

    Args:
      text_content: String teks yang akan diklasifikasikan. Idealnya minimal 20 token.
    """
    client = language_v1.LanguageServiceClient()
    document = language_v1.Document(
        content=text_content, type_=language_v1.Document.Type.PLAIN_TEXT
    )

    # Panggil API untuk klasifikasi teks
    # Catatan: Teks harus cukup panjang (biasanya minimal 20 token)
    # untuk hasil klasifikasi yang andal.
    try:
        response = client.classify_text(request={"document": document})

        print(f"Teks: {text_content[:100]}...\n") # Tampilkan sebagian teks
        print("Kategori yang Terdeteksi:")
        if response.categories:
            for category in response.categories:
                print(f"- Kategori: {category.name}")
                print(f"  Skor Keyakinan: {category.confidence:.3f}")
        else:
            print("Tidak ada kategori yang terdeteksi (mungkin teks terlalu pendek atau ambigu).")

    except Exception as e:
        print(f"Gagal melakukan klasifikasi: {e}")
        print("Pastikan teks Anda memiliki setidaknya 20 token (kata dan tanda baca).")


# Contoh penggunaan
text_berita_teknologi = """
Google meluncurkan model AI baru bernama Gemini yang diklaim mampu mengungguli GPT-4 dalam beberapa benchmark.
Model ini dirancang untuk menjadi multimodal, mampu memahami dan menghasilkan tidak hanya teks, tetapi juga gambar, audio, dan video.
Peluncuran ini menandai langkah signifikan Google dalam persaingan AI generatif global melawan pesaing seperti OpenAI dan Microsoft.
Para ahli teknologi sedang menganalisis implikasi dari kemampuan Gemini.
"""

text_olahraga = """
Timnas Indonesia berhasil melaju ke babak berikutnya setelah mengalahkan lawan tangguhnya dalam pertandingan sengit tadi malam.
Gol kemenangan dicetak pada menit-menit akhir pertandingan, memicu sorak-sorai penonton yang memadati stadion.
Pelatih menyatakan kepuasannya atas kerja keras para pemain.
"""

classify_text_content(text_berita_teknologi)
print("-" * 20)
classify_text_content(text_olahraga)

Memahami Kategori dan Skor Keyakinan

Output akan menampilkan kategori yang paling relevan beserta skor keyakinan (confidence score) antara 0 dan 1.0. Skor yang lebih tinggi menunjukkan keyakinan yang lebih besar.

  • Untuk text_berita_teknologi, Anda mungkin melihat kategori seperti `/Computers & Electronics/Software`, `/Science/Computer Science`, atau `/News/Technology` dengan skor keyakinan tinggi.
  • Untuk text_olahraga, kategori seperti `/Sports/Soccer` atau `/News/Sports` kemungkinan akan muncul.

Fitur ini sangat berguna untuk mengorganisir dan memfilter konten secara otomatis, misalnya untuk menyortir artikel berita, posting blog, email dukungan, atau dokumen internal berdasarkan topiknya.

Tips Tambahan dan Praktik Terbaik

Untuk memaksimalkan penggunaan API dan menghindari masalah umum, perhatikan beberapa tips berikut:

Penanganan Error Umum

  • Autentikasi Gagal (Permission Denied / 403 Forbidden): Ini biasanya terjadi jika variabel lingkungan GOOGLE_APPLICATION_CREDENTIALS tidak diatur dengan benar, menunjuk ke file kunci JSON yang salah/tidak valid, atau akun layanan yang digunakan tidak memiliki izin (role) yang tepat untuk mengakses Natural Language API. Periksa kembali ketiga hal ini.
  • Kuota Terlampaui (Quota Exceeded / 429 Too Many Requests): Setiap proyek Google Cloud memiliki batas jumlah permintaan per menit/detik untuk API. Jika Anda mengirim terlalu banyak permintaan dalam waktu singkat, Anda akan menerima error ini. Solusinya bisa dengan menambahkan mekanisme penundaan (delay) atau backoff eksponensial dalam kode Anda, mengoptimalkan panggilan API, atau jika perlu, meminta peningkatan kuota melalui Google Cloud Console.
  • Argumen Tidak Valid (Invalid Argument / 400 Bad Request): Error ini biasanya menunjukkan ada yang salah dengan data yang Anda kirimkan. Periksa kembali parameter seperti tipe dokumen, encoding teks, atau konten teks itu sendiri. Khusus untuk klasifikasi konten, pastikan teks yang dikirim memiliki panjang minimal (sekitar 20 token) agar model dapat bekerja optimal.

Memahami Batasan Penggunaan (API Limits)

Selain kuota permintaan per menit, Google Cloud juga menetapkan batasan lain, seperti jumlah maksimum karakter per permintaan atau jumlah total karakter yang diproses per bulan dalam tingkat gratis. Sangat penting untuk memeriksa dokumentasi resmi mengenai kuota dan batasan Natural Language API agar sesuai dengan kebutuhan aplikasi Anda dan menghindari biaya tak terduga.

Pertimbangan Biaya

Meskipun Google Cloud sering menawarkan tingkat penggunaan gratis (free tier) yang cukup besar untuk percobaan dan penggunaan skala kecil, penggunaan API di atas batas tersebut akan dikenakan biaya. Biaya biasanya dihitung berdasarkan jumlah unit teks (seringkali per 1000 karakter) yang diproses dan jenis fitur API yang Anda gunakan (misalnya, analisis sentimen mungkin memiliki tarif berbeda dari ekstraksi entitas). Penting untuk selalu memeriksa halaman harga Google Cloud Natural Language API resmi untuk memahami struktur biaya terkini dan memperkirakan potensi pengeluaran Anda. Mengetahui struktur harga google cloud natural language api membantu perencanaan anggaran proyek Anda.

Kesimpulan: Menerapkan Google Cloud Natural Language API

Dalam tutorial Google Cloud Natural Language API ini, kita telah menjelajahi langkah-langkah inti tentang cara menggunakan Google Cloud Natural Language API dengan Python untuk melakukan analisis teks yang canggih. Anda sekarang memiliki pemahaman dasar dan contoh kode praktis untuk mulai mengimplementasikan fitur-fitur ini dalam aplikasi atau proyek Anda.

Rangkuman Kemampuan Analisis Teks

Kita telah belajar cara:

  • Melakukan setup google cloud natural language api dan konfigurasi lingkungan.
  • Menganalisis sentimen untuk memahami opini dan emosi dalam teks.
  • Mengekstrak entitas penting seperti orang, tempat, organisasi, dan lainnya.
  • Menganalisis struktur sintaksis kalimat untuk pemahaman gramatikal yang lebih dalam.
  • Mengklasifikasikan konten teks ke dalam kategori topik secara otomatis.

Ide Penerapan Lebih Lanjut

Kemampuan analisis teks ini membuka banyak peluang inovatif, seperti:

  • Membangun sistem pemantauan merek dan analisis reputasi di media sosial atau ulasan online.
  • Menganalisis umpan balik pelanggan dari survei, email, atau pusat bantuan untuk mengidentifikasi tren dan area perbaikan.
  • Mengotomatiskan proses moderasi konten untuk mendeteksi teks yang tidak pantas atau spam.
  • Meningkatkan kemampuan chatbot atau asisten virtual untuk memahami pertanyaan pengguna secara lebih akurat.
  • Mengekstrak informasi kunci dan hubungan dari dokumen bisnis, hukum, atau laporan keuangan.
  • Mengorganisir perpustakaan konten yang besar dan memberikan rekomendasi yang dipersonalisasi berdasarkan topik.

Proses implementasi google nlp api di python terbilang mudah berkat library klien yang intuitif dan dokumentasi lengkap dari Google.

Langkah Berikutnya: Eksplorasi Lebih Jauh

Google Cloud Natural Language API menawarkan lebih banyak fitur dan opsi daripada yang dapat dibahas dalam satu tutorial. Sangat disarankan untuk menjelajahi dokumentasi Google Natural Language API resmi untuk mempelajari fitur lanjutan seperti analisis sentimen entitas (memahami sentimen terhadap entitas spesifik dalam teks), dukungan untuk berbagai bahasa, dan kemungkinan penggunaan model AutoML Natural Language untuk melatih model kustom pada data Anda sendiri. Teruslah bereksperimen dengan berbagai fitur dan lihat bagaimana Anda dapat memanfaatkan kekuatan google cloud ai untuk analisis teks dalam proyek Anda.

SEO Jago AIS
DITULIS OLEH

SEO Jago AI

Semua pekerjaan SEO ditangani secara otomatis oleh agen AI, memungkinkan Anda untuk lebih fokus membangun bisnis dan produk Anda.

Tanggapan (0 )