• Kapcsolat

  • Hírlevél

  • Rólunk

  • Szállítási lehetőségek

  • Prospero könyvpiaci podcast

  • Hírek

  • Information Retrieval Evaluation
      • 8% KEDVEZMÉNY?

      • A kedvezmény csak az 'Értesítés a kedvenc témákról' hírlevelünk címzettjeinek rendeléseire érvényes.
      • Kiadói listaár EUR 38.00
      • Az ár azért becsült, mert a rendelés pillanatában nem lehet pontosan tudni, hogy a beérkezéskor milyen lesz a forint árfolyama az adott termék eredeti devizájához képest. Ha a forint romlana, kissé többet, ha javulna, kissé kevesebbet kell majd fizetnie.

        15 760 Ft (15 010 Ft + 5% áfa)
      • Kedvezmény(ek) 8% (cc. 1 261 Ft off)
      • Kedvezményes ár 14 500 Ft (13 809 Ft + 5% áfa)

    15 760 Ft

    Beszerezhetőség

    Bizonytalan a beszerezhetőség. Érdemes még egyszer keresni szerzővel és címmel. Ha nem talál másik, kapható kiadást, forduljon ügyfélszolgálatunkhoz!

    Why don't you give exact delivery time?

    A beszerzés időigényét az eddigi tapasztalatokra alapozva adjuk meg. Azért becsült, mert a terméket külföldről hozzuk be, így a kiadó kiszolgálásának pillanatnyi gyorsaságától is függ. A megadottnál gyorsabb és lassabb szállítás is elképzelhető, de mindent megteszünk, hogy Ön a lehető leghamarabb jusson hozzá a termékhez.

    A termék adatai:

    • Kiadó Morgan & Claypool Publishers
    • Megjelenés dátuma 2011. június 30.
    • Kötetek száma Paperback

    • ISBN 9781598299717
    • Kötéstípus Puhakötés
    • Terjedelem119 oldal
    • Méret 235x187 mm
    • Súly 243 g
    • Nyelv angol
    • 0

    Kategóriák

    Rövid leírás:

    Evaluation has always played a major role in information retrieval, with the early pioneers laying the foundations for most of the evaluation methodologies in use today. This volume explains where these evaluation methodologies came from and how they have continued to adapt to the vastly changed environment in the search engine world today.

    Több

    Hosszú leírás:

    Evaluation has always played a major role in information retrieval, with the early pioneers such as Cyril Cleverdon and Gerard Salton laying the foundations for most of the evaluation methodologies in use today. The retrieval community has been extremely fortunate to have such a well-grounded evaluation paradigm during a period when most of the human language technologies were just developing. This lecture has the goal of explaining where these evaluation methodologies came from and how they have continued to adapt to the vastly changed environment in the search engine world today.

    The lecture starts with a discussion of the early evaluation of information retrieval systems, starting with the Cranfield testing in the early 1960s, continuing with the Lancaster ""user"" study for MEDLARS, and presenting the various test collection investigations by the SMART project and by groups in Britain. The emphasis in this chapter is on the how and the why of the various methodologies developed. The second chapter covers the more recent ""batch"" evaluations, examining the methodologies used in the various open evaluation campaigns such as TREC, NTCIR (emphasis on Asian languages), CLEF (emphasis on European languages), INEX (emphasis on semi-structured data), etc. Here again the focus is on the how and why, and in particular on the evolving of the older evaluation methodologies to handle new information access techniques. This includes how the test collection techniques were modified and how the metrics were changed to better reflect operational environments. The final chapters look at evaluation issues in user studies -- the interactive part of information retrieval, including a look at the search log studies mainly done by the commercial search engines. Here the goal is to show, via case studies, how the high-level issues of experimental design affect the final evaluations.

    Több